Didaktik der Informatik - Möglichkeiten
Transcrição
Didaktik der Informatik - Möglichkeiten
GI-Edition Gesellschaft für Informatik (GI) publishes this series in order to make available to a broad public recent findings in informatics (i.e. computer science and information systems), to document conferences that are organized in cooperation with GI and to publish the annual GI Award dissertation. The volumes are published in German or English. Information: http://www.gi-ev.de/service/publikationen/lni/ Ira Diethelm, Christina Dörge, Claudia Hildebrandt, Carsten Schulte (Hrsg.) I. Diethelm, C. Dörge, C. Hildebrandt, C. Schulte (Hrsg.): 6.Workshop der GI-Fachgruppe Didaktik der Informatik, 2010 Broken down into the fields of • Seminars • Proceedings • Dissertations • Thematics current topics are dealt with from the fields of research and development, teaching and further training in theory and practice. The Editorial Committee uses an intensive review process in order to ensure the high level of the contributions. Lecture Notes in Informatics Didaktik der Informatik Möglichkeiten empirischer Forschungsmethoden und Perspektiven der Fachdidaktik 6. Workshop der GI-Fachgruppe DDI 16.-17.09.2010 in Oldenburg ISSN 1617-5468 ISBN 978-3-88579-262-8 DDI workshops are covering a broad range of topics related to Computer Science Education Research. This volume contains contributions accepted for the sixth workshop at the Carl von Ossietzky University of Oldenburg, Germany, which focuses on scientific methods, especially empirical research in informatics education. 168 Proceedings Ira Diethelm, Christina Dörge, Claudia Hildebrandt, Carsten Schulte (Hrsg.) Didaktik der Informatik – Möglichkeiten empirischer Forschungsmethoden und Perspektiven der Fachdidaktik 6. Workshop der GI-Fachgruppe „Didaktik der Informatik” 16. - 17. September 2010 in Oldenburg Gesellschaft für Informatik e.V. (GI) Lecture Notes in Informatics (LNI) - Proceedings Series of the Gesellschaft für Informatik (GI) Volume P-168 ISBN 3-88579-262-8 ISSN 1617-5468 Volume Editors Prof. Dr. Ira Diethelm Informatik in der Bildung, Universität Oldenburg 26111 Oldenburg, Email: [email protected] Diplom Inform. Christina Dörge Informatik in der Bildung, Universität Oldenburg 26111 Oldenburg, Email: [email protected] Dr. Claudia Hildebrandt Informatik in der Bildung, Universität Oldenburg 26111 Oldenburg, Email: [email protected] Prof. Dr. Carsten Schulte Didaktik der Informatik, Freie Universität Berlin 14195 Berlin, Email: [email protected] Series Editorial Board Heinrich C. Mayr, Universität Klagenfurt, Austria (Chairman, [email protected]) Hinrich Bonin, Leuphana-Universität Lüneburg, Germany Dieter Fellner, Technische Universität Darmstadt, Germany Ulrich Flegel, SAP Research, Germany Ulrich Frank, Universität Duisburg-Essen, Germany Johann-Christoph Freytag, Humboldt-Universität Berlin, Germany Thomas Roth-Berghofer, DFKI Michael Goedicke, Universität Duisburg-Essen Ralf Hofestädt, Universität Bielefeld Michael Koch, Universität der Bundeswehr, München, Germany Axel Lehmann, Universität der Bundeswehr München, Germany Ernst W. Mayr, Technische Universität München, Germany Sigrid Schubert, Universität Siegen, Germany Martin Warnke, Leuphana-Universität Lüneburg, Germany Dissertations Dorothea Wagner, Universität Karlsruhe, Germany Seminars Reinhard Wilhelm, Universität des Saarlandes, Germany Thematics Andreas Oberweis, Universität Karlsruhe (TH) Gesellschaft für Informatik, Bonn 2010 printed by Köllen Druck+Verlag GmbH, Bonn Vorwort Die Didaktik der Informatik mausert sich. Wie bereits in den Vorjahren auch bilden die Beiträge auf dem diesjährigen, sechsten Workshop „Didaktik der Informatik – Möglichkeiten empirischer Forschungsmethoden und Perspektiven der Fachdidaktik“ einen Querschnitt durch die aktuelle, deutschsprachige Diskussion in der Didaktik der Informatik. Im Vergleich über die Jahre zeigt sich, wie auch im Titel zum Workshop angedeutet wird, die zunehmende empirische Fundierung, die einhergeht mit einer Reflexion der Möglichkeiten, Aufgaben und notwendigen zukünftigen Ausrichtung informatikdidaktischer Forschung. Schwerpunkte des diesjährigen Workshops bilden die Themengebiete Aufgaben (Wettbewerbsaufgaben, Schwierigkeitsanalysen, Muster der Aufgabenbearbeitung), Lernerperspektiven (Schülervorstellungen, subjektorientierte Forschung) und Lehrerbildung (Befragung, Perspektiven). Zudem werden im Anschluss an die Konferenz in einer Begleitveranstaltung und einem Beitrag zu diesem Workshop Perspektiven des Ansatzes "Informatik im Kontext" diskutiert. Hier sollen Forschungsrichtungen und Kooperationen von Forschergruppen zu diesem Thema erörtert werden. Eine zweite Begleitveranstaltung weist ebenfalls in die Zukunft und verdeutlicht gleichzeitig die Entwicklung des Workshops: das Doktorandenforum. Ursprünglich war der DDI-Workshop selbst als Forum für Doktoranden aus der Informatikdidaktik ins Leben gerufen worden. Nun jedoch hat sich das Feld bereits so weit etabliert, dass wir eigenständige Forschungsbeiträge auf dem Workshop diskutieren und Fragen und Details zu Promotionsprojekten im eigenen Forum für Doktoranden klären. Wir freuen uns, dass wir als Inspiration für alle beteiligten Gruppen Prof. Dr. Barbara Moschner als ausgewiesene Expertin für empirische Lern- und Lehr-Forschung für den Hauptvortrag gewinnen konnten. Wir wünschen allen Teilnehmenden und auch den Leserinnen und Lesern dieses Bandes interessante Anregungen und Diskussionen. Oldenburg und Berlin, im Juli 2010 Ira Diethelm Carsten Schulte -5- Programmkomitee Ira Diethelm (Universität Oldenburg) Christina Dörge (Universität Oldenburg) Claudia Hildebrandt (Universität Oldenburg) Carsten Schulte (Freie Universität Berlin) Gutachter Norbert Breier (Universität Hamburg) Michael Fothe (Universität Jena) Peter Hubwieser (TU München) Ludger Humbert (Universität Wuppertal) Jochen Koubek (Universität Bayreuth) Dennis Krannich (Universität Bremen) Johannes Magenheim (Universität Paderborn) Ralf Romeike (PH Schwäbisch Gmünd) Sigrid Schubert (Universität Siegen) Andreas Schwill (Universität Potsdam) Albert Zündorf (Universität Kassel) Organisationskomitee an der Universität Oldenburg Christian Borowski Ira Diethelm (Vorsitz) Christina Dörge Claudia Hildebrandt Stefan Moll -6- Inhaltsverzeichnis Teil 1: Facetten subjektorientierter Forschung Eingeladener Beitrag: Moschner, Barbara; Anschütz, Andrea Kombination und Integration von qualitativen und quantitativen Forschungsmethoden in einem interdisziplinären Forschungsprojekt …………………….………………….. 11 Knobelsdorf, Maria Informatische Lern- und Bildungsprozesse im Fokus subjektorientierter Forschung … 21 Diethelm, Ira; Zumbrägel, Stefan Wie funktioniert eigentlich das Internet? - Empirische Untersuchung von Schülervorstellungen ..……………………………………………………………………….… 33 Hubwieser, Peter; Mühling, Andreas; Brinda, Torsten Erste Ergebnisse einer Lehrerbefragung zum bayerischen Schulfach Informatik .……. 45 Diethelm Ira; Hellmig, Lutz; Friedrich, Steffen; Breier, Norbert; Brinda, Torsten Lehrerbildung Informatik - Was ist zu tun? …………………………………………… 57 Teil 2: Forschung zu Aufgaben und Problemlösestrategien Schlüter, Kirsten Eine Studie zu den Merkmalen der Aufgabenschwierigkeit am Beispiel eines Informatik-Schülerwettbewerbs. Zweiter Teil: Empirische Aufgabenanalyse ………... 69 Meißner, Gabor Aufgaben der ersten Runde des Bundeswettbewerbs Informatik – Kontinuität und Wandel ...…………………………………………………………………………….… 81 Kiesmüller, Ulrich Automatisierte, prozessbegleitende Identifizierung der Problemlösestrategien Lernender unter Verwendung von Mustererkennungsmethoden ……………………………….… 93 Teil 3: Diskussionspapiere Romeike, Ralf Scratch2Greenfoot – Eine kreative Einführung in die Programmierung mit Scratch und Greenfoot …………………………………………………………………………….. 107 -7- Predoiu, Livia Didaktik und Bewertung in längerfristigen Teamprojekten in der Hochschullehre …. 113 Engbring, Dieter; Pasternak, Arno Einige Anmerkungen zum Begriff IniK …………………………………………...… 119 -8- Teil 1 Facetten subjektorientierter Forschung Kombination und Integration von qualitativen und quantitativen Forschungsmethoden in einem interdisziplinären Forschungsprojekt Barbara Moschner, Andrea Anschütz Institut für Pädagogik Carl von Ossietzky Universität Oldenburg 26111 Oldenburg [email protected] [email protected] Abstract: Vorteile der Kombination und Integration von qualitativen und quantitativen Forschungsmethoden werden diskutiert und aufgezeigt. Basierend auf einer begrifflichen Klärung der Konzepte „quantitativ“ und „qualitativ“ stellt der Beitrag verschiedene Modelle der Methodenkombination theoretisch und bezogen auf ein Interventionsprojekt aus der eigenen Forschungspraxis dar. 1 Qualitative und quantitative Forschung Die Unterscheidung zwischen qualitativen und quantitativen Forschungsmethoden ist in den Methodenhandbüchern sehr gebräuchlich [BD06], [HSE10], [Ke08]. Unterschiede zwischen quantitativen und qualitativen Methoden bestehen dabei sowohl in der Form der Datenerhebung als auch in den Auswertungs- oder Analysemethoden des vorliegenden Datenmaterials. Entscheidungen für die eine oder die andere Forschungsmethode sollten aufgrund der zentralen Untersuchungsfragen getroffen werden, nicht selten spielen jedoch auch Forschungstraditionen oder berufsbiographische Besonderheiten bei solchen Entscheidungen eine Rolle. Quantitative Verfahren sind zumeist bei hypothesentestenden Forschungsfragen die Methode der Wahl. Zur Entwicklung der Hypothesen werden Theorien und Modelle oder bereits vorliegende empirische Untersuchungen zum interessierenden Themenkreis herangezogen; die Hypothesen werden (deduktiv) aus diesen Theorien oder Modellen abgeleitet. Beim quantitativen Ansatz werden standardisierte Verfahren der Datenerhebung eingesetzt, Ziel ist eine möglichst objektive Form der Datenerhebung und Analyse. Wesentliches Kennzeichen quantitativer Datenerhebungen ist das Messen und Testen, Datenquellen sind beispielsweise Experimente, Fragebögen, Leistungstests, Log-Files oder vorliegende Statistiken und Studien, die einer weiteren Analyse unterzogen werden. - 11 - Die erhobenen Daten werden anschließend inferenzstatistisch ausgewertet (z.B. werden Korrelationen, t-Tests, Varianzanalysen, Faktorenanalysen, Clusteranalysen oder Strukturgleichungsmodelle berechnet), sodass die Ergebnisse Aufschluss darüber geben, ob die postulierten Hypothesen - mit einer gewissen Wahrscheinlichkeit - Gültigkeit haben oder verworfen werden müssen. Dabei können Statistikprogramme wie SPSS, R oder Matlab hilfreich bei der Auswertung genutzt werden. Demgegenüber werden qualitative Verfahren eher eingesetzt, wenn das Forschungsfeld noch neu und wenig bearbeitet ist. Mit Hilfe von qualitativen Methoden soll ein neues Forschungsthema erhellt werden. Die Ergebnisse qualitativer Forschung werden häufig herangezogen, um Hypothesen (induktiv) zu generieren. Qualitative Formen der Datenerhebung sind beispielsweise teilstandardisierte oder narrative Interviews, teilnehmende Beobachtung, Aktionsforschung oder Gruppenbefragungen. Die Daten qualitativer Studien werden meist explorativ ausgewertet, wobei es einige etablierte Auswertungsmethoden gibt (z.B. die qualitative Inhaltsanalyse nach Mayring [Ma08] oder eine Auswertungsmethode basierend auf der Grounded Theory von Glaser und Strauss [GS05]). Computergestützte Auswertungsprogramme wie MAXQDA oder Atlas.ti sind dabei wertvolle Hilfsmittel. Nachdem lange Zeit quantitative und qualitative Forschung weitgehend unverbunden nebeneinander Nutzung fanden und sich die verschiedenen „Lager“ fast feindselig gegenüber standen, hat sich inzwischen die Position durchgesetzt, dass es große Überschneidungsbereiche gibt und dass eine Kombination der verschiedenen methodischen Ansätze sinnvoll und hilfreich ist [Fl00], [Fl08], [Ke08], [Ma01]. Immer häufiger wird betont, dass qualitative und quantitative Forschungsansätze keinen Gegensatz darstellen; es wird von einer „unsinnigen Dichotomie“ oder einer falschen Gegenüberstellung gesprochen [Ma01]. 2 Mixed Modells: die Kombination und Integration von qualitativen und quantitativen Forschungsmethoden Mayring [Ma01] systematisiert in seinem Artikel die Kombination und Integration von qualitativen und quantitativen Methoden auf der Ebene der Forschungsdesigns. Er unterscheidet dabei zwischen Vorstudienmodellen, Verallgemeinerungsmodellen, Vertiefungsmodellen und Triangulationsmodellen. 2.1 Vorstudienmodell Beim so genannten Vorstudienmodell dient eine qualitative Vorstudie zur Exploration eines Forschungsfeldes über das nur keine oder nur wenig Erkenntnisse vorliegen. Die Ergebnisse der qualitativen Vorstudie werden genutzt, um Hypothesen zu generieren. Diese Hypothesen werden anschließend mit Hilfe einer quantitativen Untersuchung getestet und überprüft. Zentral dargestellt werden die Ergebnisse der quantitativen Studie. - 12 - 2.2 Verallgemeinerungsmodell Ziel des Verallgemeinerungsmodells ist ebenfalls die quantitative Überprüfung von Datenmaterial. Allerdings wird in diesem Modell im ersten Forschungsschritt mehr Gewicht auf die qualitativen Daten einer fallorientierten, deskriptiven Studie gelegt, die sorgfältig ausgewertet wird. Im zweiten quantitativen Schritt wird dann anhand einer repräsentativen Stichprobe überprüft, inwieweit die Ergebnisse der Fallstudie verallgemeinert werden können. 2.3 Vertiefungsmodell Im Rahmen des Vertiefungsmodells steht am Beginn des Forschungsprozesses eine quantitative Studie an einer großen Stichprobe. Das Datenmaterial dieser Studie wird quantitativ ausgewertet. Erst dann folgt eine qualitative Studie, mit deren Hilfe das vorliegende quantitative Material besser interpretiert werden kann. Die qualitative Studie dient der Vertiefung der erzielten Ergebnisse, sie liefert Material für die Interpretation von erwarteten und unerwarteten Effekten und illustriert anhand von Fallbeispielen die Ergebnisse der quantitativen Studie. 2.4 Triangulationsmodell Beim Triangulationsansatz gehen quantitative und qualitative Methoden der Datenerhebung bzw. Datenanalyse Hand in Hand. Eine Forschungsfrage wird multiperspektivisch betrachtet, die Daten werden nahezu zeitgleich mit verschiedenen Methoden erhoben oder ausgewertet. Die Studien sollen sich gegenseitig unterstützen und die Erkenntnisse über den interessierenden Gegenstand so aus mehreren Perspektiven zusammenführen. Flick [Fl08] plädiert für eine systematische Perspektiven-Triangulation um die Stärken der jeweiligen Forschungsperspektiven gegenseitig zu ergänzen und auch deren Schwächen wechselseitig aufzuzeigen und zu kompensieren. Zudem beschreibt Flick verschiedene Konzeptionen von Triangulation wie Daten-Triangulation, Investigator-Triangulation, Theorien-Triangulation und Methoden-Triangulation, und zeigt dabei die wesentlichen Stärken und Schwächen der Ansätze auf. 3 Ein Beispiel: Das Projekt “Feedback to Learn” (F2L) Anhand eines Beispiels aus der eigenen Forschungspraxis soll an dieser Stelle gezeigt werden, wie verschiedene quantitative und qualitative Methoden der Datenerhebung und Datenanalyse sinnvoll miteinander verzahnt werden können. Bei dem hier vorgestellten Projekt „Feedback to Learn“ (F2L) handelt es sich um eine interdisziplinäre Studie, bei der pädagogisch-psychologische Forschungstraditionen mit neuropsychologischen, chemiedidaktischen und informatikbezogenen Fragestellungen verbunden sind. - 13 - Das Projekt wurde zunächst im Rahmen einer Pilotstudie für ein Jahr, aktuell für die Hauptstudie für drei Jahre vom Bundesministerium für Bildung und Forschung (BMBF) gefördert1.Die folgenden Ausführungen beziehen sich auf einen zentralen Teilaspekt des Projektes, in dessen Rahmen ein Teil der Schülerstichprobe an einem sogenannten Reattributionstraining teilnahm. Abbildung 1: Überblick über das Forschungsdesign 1 Pilotstudie „The influence of immediate feedback on subsequent learning in children“ (01GJ0602) mit den Antragstellerinnen Prof. Dr. Christiane Thiel, Prof. Dr. Ilka Parchmann und Prof. Dr. Barbara Moschner; Hauptstudie „Impact of affective and informative feedback on learning in children before and after a reattribution training” (01GJ0805) mit den Antragsteller/innen/n Prof. Dr. Christiane Thiel, Prof. Dr. Ilka Parchmann, Prof. Dr. Claus Möbus und Prof. Dr. Barbara Moschner - 14 - 3.1 Pilotstudie Fehlerrückmeldungen bei Lernaufgaben haben Auswirkungen auf den Lernprozess. Sie sind einerseits notwendig, um effizientes Lernen zu ermöglichen, andererseits können negative Emotionen, die durch bloßstellende Rückmeldungen ausgelöst werden, mit dem folgenden Lernen interferieren. In der Pilotstudie wurde mit einem assoziativen Lernexperiment, das aus Speicher-Abruf- Rückmeldungs-Trials besteht, die Rolle einer direkten Fehlerrückmeldung auf nachfolgendes Lernen quantitativ bei 250 Schülerinnen und Schülern der fünften und sechsten Klasse untersucht. Die Ergebnisse der Pilotstudie lieferten wichtige Einsichten für die Planung der Hauptstudie. Es zeigte sich beispielsweise, dass bei sinnvollem Lernmaterial der Lernerfolg stabiler ist als bei sinnlosem Lernmaterial und dass die Operationalisierung von Feedback für die Hauptstudie überarbeitet werden musste [MAÖ01]. 3.2 Hauptstudie mit Intervention Auch in der Hauptstudie stehen Fehlerrückmeldungen im Zentrum des Interesses. Es soll geklärt werden, wie sich affektive und korrektive Komponenten von positivem und negativem Feedback auf die Lernleistung auswirken. Um dies zu testen wurde je ein Lernparadigma entwickelt, das affektives bzw. korrektives Feedback enthält. Abbildung 2: Affektive und korrektive Feedbackbedingungen in den Lernparadigmen Die verwendeten Lernparadigmen spiegeln in der Hauptstudie sinnvolles Lernmaterial wider (Lernen im Chemieunterricht für Anfänger). Wir gehen davon aus, dass sich die Ergebnisse auf alle Lernaufgaben übertragen lassen, in denen regelgeleitetes assoziatives Lernen eine Rolle spielt. Zudem wird erkundet, ob die Effekte des affektiven bzw. korrektiven Feedbacks in den Lernaufgaben im Zusammenhang mit interindividuellen Unterschieden stehen und durch ein Reattributionstraining ([ZS01], Intervention) beeinflusst werden können. - 15 - Abbildung 3: Beispielaufgaben verschiedener Schwierigkeitsstufen in den Lernparadigmen Diese Intervention - in Form eines Reattributionstrainings - hat im Schulalltag statt gefunden, in dem Lehrkräfte in ihrem Umgang mit Rückmeldungen nach Erfolgen und Misserfolgen der Schülerinnen und Schüler trainiert wurden. Dabei standen individuelle Zuschreibungen (Attribuierung) von Erfolgen und Misserfolgen auf verschiedene externale (Aufgabenschwierigkeit, Zufall) aber auch internale Faktoren (Begabung, Anstrengung) im Vordergrund. Die Lehrkräfte wurden trainiert den Kindern Rückmeldungen zu geben, die günstige Attributionen enthalten und ungünstige Attributionen vermeiden z.B. mehr Anstrengung nach einem Misserfolg zu investieren anstatt diesen auf mangelnde Begabung zurückzuführen. Dabei sollten die Lehrkräfte sowohl direkte mündliche Rückmeldungen im Unterrichtsgeschehen als auch indirekte schriftliche Rückmeldungen unter Hausarbeiten, Tests und Klausuren etc. geben. 3.3 Quantitatives Prä- und Postdesign mit Interventions- und Kontrollgruppe Als Kernstück unseres Forschungsprojektes kann die quantitative Testung von Kindern der fünften und sechsten Klassenstufe vor und nach einem Reattributionstraining angesehen werden. Die Kinder bearbeiteten das oben genannte Lernparadigma vor und nach einer Interventionsphase (Reattributionstraining vs. Kontrollgruppe ohne Intervention) und wurden sowohl vor als auch nach dieser Phase hinsichtlich interindividueller Unterschiede (z.B. Intelligenz, Konzentrationsfähigkeit, Gedächtniskapazität, Zielorientierungen, Selbstkonzept) mit standardisierten Messinstrumenten getestet. Für das Reattributionstraining wurden fünf Lehrerinnen in mehrtägigen Workshops an der Universität geschult. Ihre Aufgabe war es, das Training in ausgewählten Klassen 15 Wochen lang im regulären Schulunterricht anzuwenden. Dabei wurde sichergestellt, dass diese Lehrpersonen nicht in den Kontrollklassen unterrichteten. Während der Interventionsphase erhielten die Lehrerinnen einmalig ein Auffrischungstraining und wurden direkt unterstützt, wenn sie um Hilfe baten. - 16 - Insgesamt liegen vollständige Datensätze von 418 Schülerinnen und Schüler (231 Mädchen und 187 Jungen) der fünften und sechsten Klassenstufe von zwei Gymnasien in der Studie vor. 206 Schülerinnen und Schüler (110 Mädchen und 96 Jungen) waren der Trainingsgruppe zugeordnet, 212 Versuchspersonen (121 Mädchen und 91 Jungen) bildeten die Kontrollgruppe. Die Lösungshäufigkeiten beim Lernparadigma im Bereich von 45 – 84% (je nach Schwierigkeitsgrad der Aufgabe) zeigen, dass die Schülerinnen und Schüler sehr erfolgreich mit den Lernaufgaben umgegangen sind. Dies ist insbesondere beachtlich vor dem Hintergrund, dass vor der Lernumgebung keine Einführung in die Materie stattgefunden hat und die Schülerinnen und Schüler bis zur Testung keinen Chemieunterricht hatten. Zwischen den zwei Feedbackbedingungen affektives Feedback und korrektives Feedback konnte in den Lernleistungen und Reaktionszeiten kein Unterschied gefunden werden. Es zeigte sich aber in beiden Feedbackgruppen, dass die Wahrscheinlichkeit ein Item richtig zu beantworten signifikant höher war, wenn das vorherige Item auch richtig beantwortet wurde. Erste Auswertungen bezüglich des Reattributionstrainings zeigen in den hoch affektiven Feedbackbedingungen (“besser als die anderen” und “schlechter als die anderen) ein signifikanter Effekt auf die nachfolgenden Reaktionszeiten der Kinder. Während die Kinder in der Trainingsgruppe zum ersten Messzeit nach einem hoch affektivem Feedback viel langsamer antworteten als die Kinder in der Kontrollgruppe, unterschieden sich die Reaktionszeiten der beiden Gruppen zum zweiten Messzeitpunkt nicht mehr. Dieses Ergebnis weist darauf hin, dass das Reattributionstraining einen Effekt auf die Verarbeitung des hoch affektiven Feedbacks hat. 3.4 Begleitende Tagebuchstudie Die fünf Lehrerinnen, die das Reattributionstraining durchführten, wurden gebeten am Ende jeder Woche ein standardisiertes Tagebuch zum Training auszufüllen. Die Lehrerinnen beklagten sich zwar über die zusätzliche Arbeit, die ihnen damit aufgebürdet wurde, die Tagebücher geben uns jedoch - im Sinne des Vertiefungsmodells - eine wertvolle Hilfe für die Interpretation der quantitativen Daten. Zudem können durch diese Selbstauskünfte Faktoren identifiziert werden, die die Lehrerinnen als förderlich oder schwierig bei der Umsetzung des Trainings empfanden.So zeigte sich, dass die Lehrerinnen das Training nicht in allen Fächern und in allen Stunden zufrieden stellend umsetzen konnten. Das Training fiel ihnen in den „weichen“ Fächern (z.B. Musik oder Geschichte) leichter als in den „harten“ Fächern (z.B. Mathematik). Zudem befürchteten sie, dass sie durch das Training den vorgeschriebenen Lernstoff nicht in der vorgesehenen Zeit vermitteln könnten. Manche Lehrerinnen entwickelten im Laufe des Trainings mehr Routinen, andere dagegen nicht. Die Tagebücher konnten auch Auskunft darüber geben wie zufrieden die Lehrerinnen im zeitlichen Verlauf mit der Umsetzung des Trainings waren. So konnten anfängliche Schwierigkeiten und zeitlich besonders stressige und ausgefüllte Phasen wie Klausur- und Zeugnissituationen bei allen Lehrerinnen als problematische Zeitpunkte und -verläufe herausgearbeitet werden. Alle Lehrerinnen bevorzugten die schriftliche Feedbackvariante gegenüber mündlichen Kommentaren. - 17 - 3.5 Begleitende Beobachtungsstudie Während der Interventionsstudie wurden studentische Projektmitarbeiterinnen in die Schulen geschickt um systematisch das Unterrichtsgeschehen in den Trainingsklassen zu beobachten und auch um durch ihre (sporadische) Anwesenheit sicherzustellen, dass das Training nicht in Vergessenheit gerät. Die Kategorien für die Auswertung der Beobachtungsprotokolle wurden deduktiv aus dem Trainingsmaterial heraus entwickelt und induktiv bezogen auf die vorliegenden Beobachtungsprotokolle ergänzt. Die studentischen Beobachterinnen berichteten, dass Erfolgssituationen im Unterricht viel häufiger zu beobachten waren als Misserfolgssituationen und sich deshalb auch die Kommentare der Lehrerinnen viel häufiger auf solche Erfolgssituationen bezogen. Die Lehrerinnen waren froh über die studentischen Beobachtungen, da sie so Rückmeldungen erhalten konnten, ob ihr Training angemessen durchgeführt wurde. Die Kinder in den beobachteten Klassen begrüßten ebenfalls die Anwesenheit der studentischen Beobachterinnen. Sie hatten den Eindruck, dass in solchen Stunden ihre Lehrerinnen besonders freundlich waren. 3.6 Interviewstudie mit Schülerinnen und Schülern Mit einzelnen Schülerinnen und Schülern (N=27) der Trainingsgruppen wurden im Anschluss an die Intervention mit Hilfe eines halbstandardisierten Interviews durchgeführt. Insgesamt zeigt sich, dass die schriftlichen Rückmeldungen der Lehrerinnen in der Interventionsphase als hilfreich für die Kinder und auch für deren Eltern wahrgenommen wurden. Die verbalen Rückmeldungen wurden im Alltagsgeschäft meist gar nicht wahrgenommen. Die Kinder verglichen und bewerteten ihre Noten im Vergleich zu ihren Klassenkameraden, Kommentare wurden dagegen als etwas „Persönliches“ betrachtet und nicht mit den Klassenkameradinnen und Klassenkameraden diskutiert. 3.7 Interviewstudie mit Lehrerinnen Nach Abschluss der Interventionsphase wurden ebenfalls mit den fünf beteiligten Lehrerinnen teilstrukturierte Interviews durchgeführt. Alle Lehrerinnen berichteten, dass sie das Training nicht ununterbrochen in ihren Gruppen durchführen konnten, da konkurrierende Dinge anstanden (Klassenarbeiten, Ferien, eigene Krankheiten usw.). Sie berichteten weiterhin, dass die Eltern sich sehr für die schriftlichen Kommentare bei den Klassenarbeiten interessierten und mit ihren Kindern darüber sprachen. Manche Eltern erklärten, dass ihre Kinder nun motivierter seien. Bei manchen Kindern beobachteten die Lehrerinnen deutliche positive Reaktionen auf das Training. Sie waren motivierter und erzielten bessere Leistungsergebnisse. Keines der Kinder beklagte sich über die Kommentare. Alle Lehrerinnen waren überzeugt, dass sie - ebenso wie ihre Schülerinnen und Schüler - eine Menge gelernt hatten. In den Interviews konnten zudem Probleme und Schwierigkeiten, aber auch Chancen, die in den Tagbüchern beschrieben wurden, aufgegriffen, vertieft und diskutiert werden. - 18 - 3.8 Parallelstudie Neuroimaging In einer parallelen Neuroimaging-Studie wurde untersucht, welche Hirnaktivitäten mit Feedback verbunden sind. Für diese Studie wurde ein Teil der Kinder (N= 63) aus der Trainingsgruppe und der Kontrollgruppe mit funktioneller Magnetresonanztomographie (fMRT) untersucht. Die fMRT ist eine Weiterentwicklung der Magnetresonanztomographie (MRT, auch Kernspintomographie), die vor allem in der Forschung eingesetzt wird. Die Ergebnisse unserer Untersuchungen sollen einen Einblick in diejenigen Hirnaktivitäten ermöglichen, die an der Verarbeitung und dem Umgang mit affektiven Komponenten von Feedback und den Effekten von Feedback auf Lernleistungen, beteiligt sind. Erste Auswertungen der fMRT-Daten weisen auf die Wirksamkeit des Reattributionstrainings hin. Für die Feedbackbedingung „schlechter als die anderen“ zeigte sich ein signifikanter Interaktionseffekt zwischen dem Messzeitpunkt und der Trainingsgruppe u.a. in einem Areal (superior temporaler Gyrus), das zu einem Netzwerk von Regionen gehört, die an der Erfassung von Gefühlen, Bedürfnissen, Absichten und Meinungen anderer und an der Verarbeitung selbstrelevanter Informationen im sozialen Kontext beteiligt ist. Somit weisen die Ergebnisse dieser Teilstudie und der Verhaltensstudie darauf hin, dass die trainierten Kinder besser in der Lage waren, selbstrelevante, affektiv stark beanspruchende Informationen lernförderlich zu verarbeiten. 3.9 Follow-Up Ein Jahr nach dem Ende der Interventionsstudie wurden alle Versuchspersonen noch einmal gebeten, an einer Follow-Up-Studie teilzunehmen. Aufgrund von Umzügen, Schulwechsel, Klassenwechsel oder Krankheiten konnten nicht mehr alle Schülerinnen und Schüler erreicht werden, sodass sich die Stichprobe auf ca. 400 Schülerinnen und Schüler reduziert von denen vollständige Datensätze vorliegen. Die Follow-Up-Studie soll vor allen Dingen klären, inwieweit die Effekte des Reattributionstrainings nicht nur kurzfristig, sondern auch längerfristig wirksam sind. Die Follow-Up-Studie ist rein quantitativ angelegt und beinhaltet im Wesentlichen die gleichen Testinstrumente (Fragebögen und Tests) wie die vorangegangenen quantitativen Erhebungen. Momentan werden die Daten der Follow-Up-Studie zur Datenauswertung aufbereitet. - 19 - 4 Fazit und Ausblick Gerade in anwendungsorientierten und auch in interdisziplinären Forschungsfeldern ist eine Kombination von quantitativen und qualitativen Forschungsmethoden von großem Wert. Die mehrperspektivische Sichtweise ermöglicht es, das Forschungsfeld besser auszuleuchten und erwartete wie unerwartete Ergebnisse besser zu verstehen. Während durch quantitative Studien theoriegeleitet Hypothesen geprüft werden können und verallgemeinerbare Resultate erzielt werden, wird durch qualitative Studien die Interpretation der Daten erleichtert und verbessert. Sie weisen häufig eine Tiefenschärfe auf, die mit rein quantitativen Untersuchungsdesigns nicht erreicht werden kann, besitzen aber demgegenüber nur einen geringen Verallgemeinerungscharakter. Es lässt sich beobachten, dass sowohl in nationalen als auch in internationalen Zeitschriften Publikationen zunehmen, die verschiedene Formen der Datenerhebung und der Datenauswertung beinhalten. Gerade die computergestützten Programme zur Auswertung qualitativer Daten haben die Analyse großer Datensätze spürbar erleichtert und die Akzeptanz solcher Studien durch eine deutliche Systematisierung stark erhöht. Literaturverzeichnis [BD06] Bortz, J.; Döring, N.: Forschungsmethoden und Evaluation für Human - und Sozialwissenschaftler., 4., überarbeitete Auflage. Springer, Heidelberg, 2006. [Fl00] Flick, U.: Triangulation in der qualitativen Forschung. In (Flick, U.; v. Kardorff; E.; Steinke, I.; Hrsg.): Qualitative Forschung. Ein Handbuch. Rowohlt, Reinbek, 2000; S. 309-318. [Fl08] Flick, U.: Triangulation. Eine Einführung. 2. Auflage. VS Verlag für Sozialwissenschaften, Wiesbaden, 2008. [GS05] Glaser, B. G.; Strauss, A. L.: Grounded Theory. Strategien qualitativer Forschung. 2., korrigierte Auflage. Bern, Huber. 2005 [HSE10] Hussy, W.; Schreier, M.;, Echterhoff, G.: Forschungsmethoden in Psychologie und Sozialwissenschaften - für Bachelor. Springer, Heidelberg, 2010. [Ke08] Kelle, U.: Die Integration qualitativer und quantitativer Methoden in der empirischen Sozialforschung: Theoretische Grundlagen und methodologische Konzepte. 2. Auflage. VS Verlag für Sozialwissenschaften, Wiesbaden, 2008. [Ma01] Mayring, P.: Kombination und Integration qualitativer und quantitativer Analyse. Forum Qualitative Sozialforschung, 2001, 2(1), Art. 6, http://nbn-resolving.de/urn:nbn:de:0114fqs010162. [Ma08] Mayring, P.: Qualitative Inhaltsanalyse. Grundlagen und Techniken. 10. Auflage. Beltz, Weinheim. 2008 [MAÖ01]Moschner, B.; Anschütz, A.; Özyurt, J.; Thiel, C.; Parchmann, I.: Fehlerrückmeldungen bei Lernaufgaben: Erste Ergebnisse aus Untersuchungen mit 10- bis 13jährigen. In: (Lankes; E.-M.; (Hrsg.): Pädagogische Professionalität als Gegenstand empirischer Forschung .Waxmann, Münster, 2008; S. 165-176 [ZS01] Ziegler, A.; Schober, B.: Theoretische Grundlagen und praktische Anwendung von Reattributionstrainings. Roderer, Regensburg, 2001. - 20 - Informatische Lern- und Bildungsprozesse im Fokus subjektorientierter Forschung Maria Knobelsdorf Freie Universität Berlin Königin-Luise-Str. 24-26 14195 Berlin [email protected] Abstract: Die Debatte um informatische Bildung knüpft an die Bildungstheorie an und argumentierte für den allgemeinbildenden Wert der Informatik. Mit den Bildungsstandards ist zudem eine erste Konsolidierung verschiedener Strömungen erreicht worden. Insgesamt fokussiert die bisherige Diskussion und damit auch die sich daran anschließende Forschung auf die Inhalte und deren Umsetzung im Informatikunterricht, während die Lernenden und ihre Subjektperspektive bisher nicht genug berücksichtigt wurden. In diesem Artikel wird daher für Forschungsansätze plädiert, die die Lernenden und ihre individuellen Lern- und Bildungsprozesse ins Zentrum rücken. Als ein möglicher, empirischer Zugang wird die qualitative Biographieforschung thematisiert, wie sie z.B. in Bezug auf Schule in der Bildungsgangforschung umgesetzt wird. Bisherige Forschungsansätze werden vorgestellt. 1 Einführung In den letzten 20 Jahren ist informatische Bildung ausgiebig diskutiert worden, wobei verschiedene Definitionen und Ansätze vorgeschlagen entwickelt worden sind. Die Debatte knüpfte dabei an die Bildungstheorie an und argumentierte für den allgemeinbildenden Wert der Informatik. Mit den Bildungsstandards für einen Informatikunterricht (IU) in der Sek. I ist dabei eine erste Konsolidierung verschiedener Strömungen erreicht worden. Nun richtet sich der Fokus auf die Umsetzung: Aufgaben werden gefordert und konkrete Umsetzungsmöglichkeiten im Unterricht diskutiert. Insgesamt lag und liegt der bisherige Fokus dieser Diskussion jedoch auf den Inhalten und auf deren Umsetzung im Unterricht, während die Lernenden und ihre Subjektperspektive bisher nicht stark genug berücksichtigt worden. Da die inhaltliche Begründung auf die Zielkategorie Bildung verweist, sollte daran erinnert werden, dass Bildung nicht verordnet werden kann, sondern einen individuellen Prozess zwischen Subjekt, der Welt und seinen Handlungen darstellt. Damit ist die Subjektperspektive nicht suspendierbar, sonst läuft die Argumentation Gefahr durch das Ausklammern der Lernenden die eigene Grundlage zu diskreditieren, auf der sich informatische Bildung begründet. In diesem Beitrag wird daher für die Notwendigkeit eines subjektorientierten Ansatzes plädiert. Qualitative Biographieforschung stellt einen möglichen Zugang dar Lern- und - 21 - Bildungsprozesse zu rekonstruieren. Verschiedene Studien wurden dazu bereits erfolgreich durchgeführt und konnten erste Einblicke in Lern- und Bildungsprozesse von Personen verschiedener Kohorten aufzeigen. Im Bereich der Unterrichtsforschung fehlen bisher biographische Forschungsansätze, hier bietet die Bildungsgangforschung theoretische und methodologische Konzepte an. 2 Informatische Bildung Die Frage, was unterrichtet werden sollte, ist eine der zentralen Fragestellungen der Didaktik. Die Festlegung von Auswahlkriterien hat normativen Charakter und bezieht sich auf vorherrschende gesellschaftliche Werte, Norme und Ideale. In Deutschland ist dafür bisher die Kategorie Bildung und die im Neuhumanismus begründete Bildungstheorie maßgebend gewesen. Mit Bildung ist die Befähigung eines Menschen zu vernünftiger Selbstbestimmung (im Sinne der Aufklärung), unabhängig seiner Herkunft und Stellung gemeint. Als Bildungsprozess wird die individuelle Entwicklung eines Menschen im Medium objektiv-allgemeiner Inhaltlichkeit verstanden, aus deren dialektischer Beziehung Individualität und Gemeinschaftlichkeit gleichermaßen sich gegenseitig konstituieren und begrenzen (vgl. [Kla86]). Die bildungstheoretische und die sich daran fortsetzende kritischkonstruktive Didaktik verstehen Unterricht als Begegnung der Schülerinnen und Schüler (SuS) mit didaktisch analysierten Bildungsinhalten. Mit der didaktischen Analyse, der kategorialen Bildung sowie den epochaltypischen Schlüsselproblemen wurden von Klafki Instrumente und Kategorien für die Bestimmung des Bildungswerts vorgelegt (vgl. [Kla07]). Heymann hat diesen Bildungsbegriff auf die Mathematik und andere Fachgebiete ausdifferenziert und sieben Aufgaben der allgemeinbildenden Schule benannt (vgl. [Hey96]). In der Diskussion um informatische Bildung und die Frage, was an der Informatik allgemeinbildend sei, wird an diesen theoretischen Bezugsrahmen angeknüpft (vgl. [Wit03], S. 60). Ein Schwerpunkt der bisherigen Diskussion lag dabei an der Herausarbeitung gesamtgesellschaftlicher Frage- und Problemstellungen in der Informatik in Anlehnung an die epochaltypischen Schlüsselprobleme. 2.1 Bildungsstandards des Informatikunterrichts Die Diskussion um informatische Bildung hat nach der ersten PISA-Studie eine neue Wendung genommen, als damit begonnen wurde Bildungsstandards der Informatik für die Sek. I zu entwickeln. Mit Bezug auf die bisherige Debatte über den allgemeinbildenden Wert der Informatik und orientiert an den Bildungsstandards der Mathematik, wurden die von den SuS in einem IU der Sek. I zu erreichenden fachbezogenen Kompetenzen formuliert (vgl. [Pu08]). Die Bildungsstandards definieren, welche Ziele SuS nach einer bestimmten Zeit erreicht haben sollten und bieten die Möglichkeit diese zu überprüfen und zu evaluieren an. Zwar orientiert sich die inhaltliche Ausformulierung der Standards an dem allgemeinbildenden Wert eines Fachs, in ihrer Substanz sind die Bildungsstandards Leis” tungsstandards, sie sagen, was am Ende von gewissen Abschnitten von Bildungsgängen - 22 - erreicht werden soll“ (vgl. [Blu06], S. 15). Damit werden nicht mehr konkrete Inhalte in Form von Lehrplänen vorgegeben, sondern Ziele, deren Erreichung jede Schule individuell gestalten muss. Die Informatikdidaktik fordert für die Umsetzung der Standards im nächsten Schritt konkrete Aufgaben und diskutiert ihre Umsetzungsmöglichkeiten im Unterricht. Was hier wie auch schon in der früheren Diskussion um informatische Bildung fehlt, ist die Berücksichtigung der Lernenden und ihres Lern- und Bildungsprozesses. Bildungsstandards haben zwar das Wohl der Lernenden zum Ziel, tatsächlich findet aber eine rein fachinhaltliche Auseinandersetzung statt, der eine methodische im Hinblick auf Umsetzung und die spätere Evaluation folgt, während die Lernenden geradezu im behavioristischen Sinne als Objekte dieses Systems gesetzt sind. Hier wird auf eine maßvolle Umsetzung der Standards verwiesen, jedoch gibt die Bildungsforschung diese Aufgabe an die Schule und die Lehrkräfte weiter. Inwiefern eine Lehrperson dann Unterricht gestaltet, der einen bildenden Wert hat oder mehr einem training to the test entspricht, bleibt zunächst offen. Die Bildungsstandards können nur daher erfolgreich sein, wenn der darin gedachte Bildungsprozess der Lernenden auch tatsächlich im Mittelpunkt steht. Ein solcher Unterricht muss sich jedoch daran orientieren, inwiefern er zur Förderung und Weiterentwicklung von Kompetenzen beigetragen hat: Die wichtige Frage ist nicht ’Was haben wird durch” genommen?’, sondern ’Welche Vorstellungen, Fähigkeiten, und Einstellungen sind entwickelt worden?’“ (vgl. [Blu06], S. 17). Die Bildungstandards für den Sek. I IU befürworten das, indem sie sich auf den Konstruktivismus als Lerntheorie beziehen und daher fordern: Erfolgreicher Informatikunterricht setzt also voraus, dass die Lehrenden verstehen, was für die Lernenden von Bedeutung und Interesse ist, um dies als Ausgangs- und Anknüpfungspunkt zu benutzen (vgl. [Pu08], S. 5). Diese Forderung zieht viele Fragen nach sich, die sich letztlich alle auf die individuellen Lern- und Bildungsprozesse der Lernenden beziehen: Wie nähern sich Lernende dem Gegenstand Informatik, seinen Inhalten und Artefakten an? Was interessiert und motiviert Lernende an informatischen Themen? Womit identifizieren sie sich besonders stark? Wie entwickeln sie fachspezifische Kompetenzen im Bereich informatischer Bildung? Welche Schwierigkeiten haben sie dabei und wie gehen sie damit um? All das sind Fragen die sich auf den informatischen Lern- und Bildungsprozess eines Menschen in Bezug auf seine Lebenswelt beziehen und die für einen gelingenden IU zentral sind. 2.2 Bisherige Forschung der DDI Die Forschung der Informatikdidaktik befindet sich im Vergleich zu den etablierten Disziplinen wie beispielsweise der Mathematik- oder Physikdidaktikforschung noch im Aufbau. Dennoch wurden bereits viele Forschungsvorhaben umgesetzt und zahlreiche Dissertationen vorgelegt, so dass erste thematische und methodische Ausdifferenzierungen erkennbar kann (vgl. [Hum09]). - 23 - Insgesamt1 kann beobachtet werden, dass die bisherige Forschung der Informatikdidaktik sich den vielfältigen Herausforderungen eines nach wie vor wenig erforschten Gebiets stellt. Thematisch lag der bisherige Fokus hauptsächlich auf der Frage nach dem allgemein bildenden Wert der Informatik und damit seiner Legitimation als Schulfach. Dazu wurden unterschiedliche Themen der Informatik didaktisch analysiert und für den Unterricht ausgearbeitet, erprobt und evaluiert. Erste fachdidaktische Ansätze wurden ausgearbeitet, darüber hinaus fand die Entwicklung von Lernumgebungen statt. Empirische Lehr-Lern-Forschung, wie sie für die anderen Fachdidaktiken programmatisch ist, wurde bisher nur in einem sehr engen Rahmen durchgeführt, was durch beschränkte Ressourcen erklärbar ist. Hier findet hauptsächlich theoriegeleitete Entwicklung und empirische Prüfung von Unterrichtsbeispielen oder Konzepten statt. Die wissenschaftliche Güte der durchgeführten empirischen Studien ist dabei sehr durchwachsen. Es wurden sowohl qualitative als auch quantitative Ansätze umgesetzt, allerdings war ihr Zweck nicht immer nachvollziehbar. Einige Arbeiten haben Vorstudiencharakter, während andere sich an wissenschaftlichen Methoden und Theorien der empirischen Sozialforschung und Psychologie orientieren und den jeweiligen epistemologischen Forschungskontext beachten. Eine breit angelegte Unterrichtsforschung und -evaluation, wie sie für die Fächer Mathematik und Naturwissenschaften umgesetzt wird, fehlt jedoch noch, genauso wie die systematische Erforschung von Lernprozessen insbesondere aus der Subjektperspektive (vgl. [RU09]). Die Forschung der Informatikdidaktik wird im Hinblick auf Förderung von Forschungsprojekten vor allem an den Standards empirischer Lehr-Lern- und Bildungsforschung gemessen werden und muss sich daher einer Herausforderung stellen, für die die etablierten Fachdidaktiken Zeit und Personal hatten hineinzuwachsen. Insgesamt ist jedoch eine deutliche Tendenz erkennbar hier anzuschließen. Es ist daher erforderlich eine Diskussion zu führen, wie die Informatikdidaktik zukünftig ihre Forschung gestalten will und innerhalb welcher Forschungstraditionen sie sich verortet. Die hier vorgelegte Arbeit möchte auf die noch zu wenig berücksichtigte Subjektperspektive der Individuen (sowohl Lernende als auch Lehrende) in der Auseinandersetzung mit den hingegen vielfach diskutierten und weiterentwickelten inhaltlichen Festlegungen hinweisen. Im Folgenden soll die qualitative Biographieforschung als möglicher empirischer Ansatz zur Erforschung von Lern- und Bildungsprozessen vorgestellt werden. Im Anschluss erfolgt eine kurze Einführung in die Bildungsgangforschung, die die Tradition der bildungskritischen Didaktik mit empirischer Lehr-Lern-Forschung verknüpft und einen Ansatz für biographische Unterrichtsforschung anbietet. 3 Empirische Zugänglichkeit von Lern- und Bildungsprozessen Lernen wird heutzutage konstruktivistisch verstanden: die lernende Person setzt sich aktiv mit dem Lerngegenstand auseinander. Sie konstruiert ihr eigenes Verständnis, indem sie den Lerngegenstand mit eigenen Vorerfahrungen und Vorkenntnissen sinnhaft verknüpft. 1 Aus Platzmangel ist es leider nicht möglich detailliert auf die verschiedenen Arbeiten einzugehen. - 24 - Lernen wird außerdem als ein Prozess verstanden, der situativ ist, d.h. in fachliche, soziale und kulturelle Kontexte eingebettet ist. Der situative Kontext, in dem Lernen stattfindet, bedingt und wirkt auf den Lernprozess und damit auf die Person selbst zurück. Es setzt sich daher immer mehr die Erkenntnis durch, dass Lernprozesse ganzheitlich in ihrem situativen Kontext untersucht werden müssen, um sie didaktisch besser zu unterstützen. Lernprozesse können auch als Teil von Bildungsprozessen verstanden werden. In Lernprozessen erwerben wir konkrete Kompetenzen oder Wissen, bildlich gesprochen halten wir dann ein Werkzeug in der Hand. Der Bildungsprozess als Ganzes fokussiert aber vor allem auf die Frage, wie der Erwerb eines solchen Werkzeugs auf das Individuum zurückwirkt, seine Welt- und Selbstsicht im Handlungskontext des Werkzeugs verändert. Damit hängen Lern- und Bildungsprozesse zusammen. Sie verlaufen jedoch nicht nur im Rahmen von Bildungsinstitutionen (auch wenn diese daran angelehnt so heißen), sondern setzen sich im Alltag außerhalb der Schule oder Hochschule fort, diese zu erforschen erfordert einen ganzheitlichen Forschungsansatz, wie ihn z.B. die qualitative Biographieforschung anbietet. Insbesondere im Bereich der Unterrichtsforschung fehlen bisher biographische Forschungsansätze, hier bietet die Bildungsgangforschung theoretische und methodologische Konzepte an. Beide Ansätze sollen nun kurz vorgestellt werden. 3.1 Qualitative Biographieforschung Wie können wir Lern- und Bildungsprozesse empirisch erfassen und untersuchen? Die erziehungswissenschaftliche Biographieforschung geht dieser Frage nach und versteht Lernund Bildungsprozesse als Welt- und Selbstkonstruktionen im Sinne des Sozialkonstruktivismus nach Schütz und Luckmann, was der Selbst- und Welterschließung des neuhumanistischen Bildungsbegriffs entspricht (vgl. [Mar05], S. 181). Nun wird im phänomenologischen Sinne argumentiert, dass der eigene Lern- und Bildungsprozess erst durch die bewusste Rückschau auf Erlebtes sowohl dem Individuum als auch den Forscherinnen und Forschern zugänglich wird. Indem der Lernende bisher Erlebtes aus der autobiographischen Perspektive reflektiert, wird der bisherige Bildungsprozess sichtbar und der eigene Lernprozess reflektiert. Autobiographien oder generell autobiographisches Material sind zunächst Konstruktionen der eigenen Lebensgeschichte. Die dabei geschilderten Erfahrungen und Erlebnisse des eigenen Lebens werden durch Sinn- und Bedeutungsherstellung in einen Zusammenhang gebracht. Das Verfassen der eigenen Biographie ist ein retrospektiver Prozess, bei dem bedeutungsordnende, sinnherstellende Konstruktionen des eigenen Lebens sichtbar gemacht werden: die Biographie als Träger von impliziten Orientierungen und Sinnkonstruktionen: Die Erinnerungen, die jemand von seinem Leben noch aktualisieren kann, ” sind jene, die ihm bedeutungsvoll in einem Gesamtzusammenhang erscheinen, durch die er sein Leben strukturiert“”(vgl. [Mar05], S. 179). Der Mensch entwirft in einem Prozess der Biographisierung nicht nur sich selbst ständig neu, sondern auch die Welt aus der Perspektive einer bestimmten, individuellen Sichtweise. In biographischen Lernverläufen schichten sich Erfahrungen aufeinander, werden subjektiv in Beziehung gesetzt und gedeutet, sodass (implizite, und zum Teil auch unbewusste) Orientierungen in Form von - 25 - Selbst- und Weltbildern entstehen. Veränderungen im Selbst- und Weltbild entstehen langsam und sprunghaft. Sichtbar werden sie erst retrospektiv in der Darstellung der eigenen Biographie (vgl. [Eca06]). Unter biographischem Lernen werden Lernprozesse als Teil der eigenen Biographie verstanden, als zentrale Tätigkeit des Lebens an sich. Biographisches Lernen ist längerfristig und komplex, inhaltlich bestimmt und bezieht sich auf bestimmte soziokulturelle und historisch bedingte Inhalte und Probleme. Dabei werden Lernbedingungen wichtiger als Lernmechanismen. Der eigene biographische Lernprozess ist eingebunden in kollektive Lernprozesse, im Sinne soziokultureller Entfaltung der menschlichen Gattung. Lernprozesse gewinnen eine biographische Bedeutung durch die Auseinandersetzung zwischen Individuum und einem Lernfeld, das nicht nur durch subjektive Bedeutungszuschreibungen und die Interessen des Individuums bestimmt wird, sondern auch Angebote, Widerstände und Vorgaben der Umwelt einschließt. Eine autobiographische Erzählung kann mehrere, auch miteinander konkurrierende Lernfelder beinhalten, die entweder nur vorübergehend in Erscheinung treten oder zentral werden (vgl. [Sch05], S. 44-47). Gepaart wird dieser Forschungsansatz mit empirischen Methoden zur Datenerhebung und Analyse aus der qualitativen Sozialforschung. Qualitative Biographieforschung nimmt eine retrospektive Perspektive in der Datenerhebung an. Es werden Daten erhoben, die die retrospektiv reflektierte eigene Lebensgeschichte widerspiegeln. Der Fokus liegt also auf der Reflexion, auf der persönlichen Sicht des Subjekts auf das von ihm erlebte (vgl. [Mar05]). Reaktive Verfahren zur Datengewinnung sind hauptsächlich Interviewverfahren (narrativ oder Leitfaden gestützt) und ethnographische Verfahren (teilnehmende Beobachtung). Nichtreaktive Verfahren basieren auf autobiographischem Material wie z.B. Briefen, Tagebüchern, Bild- oder Tonaufnahmen (vgl. [Mar06], S. 115ff). Die Datenanalyse biographischer Forschung ist je nach Forschungsschwerpunkt und Datenmaterial unterschiedlich. Inhaltlich geht es zunächst um die Einzelfallrekonstruktion der Biographie einer Person. Die biographisch erworbenen Erfahrungen, die das Welt- und Selbstbild konstituieren, werden rekonstruiert und in deskriptiver Weise festgehalten. Im zweiten interpretativen Schritt geht es darum aus der Perspektive des Subjekts seine Handlungs- und Verhaltensweisen nachzuvollziehen und ihre Sinnhaftigkeit interpretatorisch herauszuarbeiten (vgl. [Mar06], S. 120-121). 3.2 Die Bildungsgangforschung Mit Bildungsgang ist im traditionellen Sinne der zeitliche Gang“ durch ein institutiona” lisiertes Bildungssystem gemeint, der durch Rahmenstundentafeln, Curricula, Fächer und Prüfungen einem Lernenden den vorab festgelegten Weg weist“. Die jeweilige Bildungs” institution setzt dabei Lernende voraus, deren Eingangsvoraussetzungen und Abschlussaspirationen homogen sind (siehe Schularten, Jahrgangsstufen, Abschlüsse). Bildung entsteht dann als Produkt des Lehrerhandelns an den SuS. Andererseits wird den Schulen der gesellschaftliche Auftrag übertragen, die zukünftigen Generationen auf ein produktivpartizipatives Leben in der Gesellschaft vorzubereiten. Dem Zwang der Schulpflicht wird die schulische Selbstverpflichtung die Lernenden zur Freiheit und Selbstbestimmung zu - 26 - erziehen und zu bilden gegenübergestellt. Das wirkt widersprüchlich, denn Schulen sollen bilden, aber Bildungsprozesse können nicht verordnet werden: Die Förderung von Bil” dung bedarf daher einer Kultur, die nicht nur die Reproduktion der Gesellschaft sichert, sondern zugleich gesellschaftliche Transformation ermöglicht“ (vgl. [Mey05], S. 18). Hier knüpft die Bildungsgangforschung2 an die bildungstheoretische und kritisch-konstruktive Didaktik und die kategoriale Bildung an. Dabei geht sie über die Frage der inhaltlichen Schulbildung als idealen Endzustand hinaus und bezieht sich auf den Entwicklungsprozess des Einzelnen. Dem durch die Institution vorgegebenen objektiven Bildungsgang wird ein gedachter subjektiver Bildungsgang entgegengesetzt, der sich im Bildungsprozess eines Lernenden vollzieht. Damit rückt der Humboldt’sche Bildungsbegriff, als Entfaltung individueller Anlagen in der wechselseitigen Auseinandersetzung zwischen Subjekt und Welt wieder in den Fokus. Forschungsfragen werden relevant, die sich damit auseinander setzen, wie Lernende die Vorgaben einer Bildungsinstitution für sich umsetzen und im konstruktivistischen Sinne mit ihren Vorerfahrungen und Vorkenntnissen verknüpfen. Die Bildungsgangforschung geht dabei noch weiter und setzt den subjektiven Bildungsgang eines Einzelnen ins Verhältnis zum biographischen Kontext, da sie Lern- und Bildungsprozesse als Sozialisationsprozesse versteht, die sich immer in einem situativen Kontext abspielen. Aus der Perspektive der Gesamtbiographie ist die Auseinandersetzung mit dem eigenen Bildungsgang nur ein Teilaspekt. Kinder und Jugendliche beschäftigen sich während ihrer Schulzeit mit vielen anderen Themen und erkennen in ihrer Biographie verschiedene Anforderungen, die sich jedoch auch überschneiden können. Um auch diesen pädagogisch wichtigen Bereich zu erfassen, arbeiten die Bildungsgangforschung und ihre Didaktik hier mit dem Konzept der Entwicklungsaufgaben nach Havighurst. Entwicklungsaufgaben versuchen das Spannungsfeld zwischen subjektiven Bedürfnissen und gesellschaftlichen Ansprüchen, von denen die Schule nur einen Bereich darstellt, zu erfassen. Entwicklungsaufgaben ziehen sich dabei durch den gesamten Lebenslauf. In den 1980er Jahren wurden von Dreher und Dreher die von Havighurst definierten Entwicklungsaufgaben empirisch überprüft und erweitert. Der innovative Gedanke der Entwicklungsaufgabe besteht darin, die Bildungsanforderungen der Schule auf die gesamte Persönlichkeitsentwicklung zu erweitern, womit der individuelle Prozesscharakter des Humboldt’schen Bildungsbegriffs stärker berücksichtigt wird als in den Curriculardebatten (vgl. [Tra04]). Bildungsgangforschung geht davon aus, dass Lernen immer situiert ist und diese Situiertheit durch den eigenen Lebenslauf, die darin enthaltenen Entwicklungsaufgaben oder -themen, sowie durch die subjektive Struktur des Bildungsgangs bestimmt wird. Bildungsgangforschung macht es sich zur Aufgabe die subjektiven Bildungsgänge von Lernenden 2 Historisch betrachtet ist die Bildungsgangforschung in den 1970er Jahren aus der wissenschaftlichen Begleitung des nordrhein-westfälischen Kollegschulversuchs hervorgegangen (vgl. [Bla86]). Mit Bildungsgang waren die verschiedenen studiums- und berufsvorbereitenden Varianten der Kollegschulklassen gemeint. In Fokus standen die SuS als Subjekte und Gestalter ihrer eigenen Bildungsgänge, sowie die Überzeugung, dass nur aus dieser Subjektperspektive sowohl die Wirkung institutionalisierter Bildungsgänge, als auch Unterricht selbst angemessen beschrieben, evaluiert und gestaltet werden kann. Daraus ging die Unterscheidung in einen objektiven und subjektiven Bildungsgang hervor, die das curriculare Lehr-Lern-Programm ins Verhältnis individueller Deutung und Aneignung der Lernenden setzt (vgl. [Lec08], S. 15ff). Eine wissenschaftliche Weiterentwicklung und Etablierung erfolgte durch das DFG-Graduiertenkolleg Bildungsgangforschung an der Universität Hamburg von 2002 bis 2008 (vgl. [Mey09], S. 108 ff.), (vgl. [Her08], S. 61ff). - 27 - und Lehrenden zu rekonstruieren und wie sich diese im konkreten Unterricht strukturell niederschlagen. Damit wird sie zur empirischen Lehr-Lern-Forschung, die sich an die erziehungswissenschaftliche Biographieforschung und ihre Methodologie anlehnt (vgl. [Kol05]). Konkret werden biographische Lernprozesse von SuS als auch von Lehrpersonen in unterschiedlichen Fachstrukturen wie z.B. dem Physik- oder Mathematikunterricht untersucht (vgl. [Lec08]). Der Fokus liegt auf Interesse, Sinnkonstruktion, individueller Kompetenzentwicklung, und Alltagsvorstellungen im Rahmen des jeweiligen Fachunterrichts. 4 Biographische Ansätze in der DDI Qualitative Biographieforschung ist bisher nur im Ansatz im thematischen Fokus der Informatik durchgeführt worden. Dazu zählt u.a. die Untersuchung von Weltbildern von InformatiklehrerInnen in Bezug auf den Computer (vgl. [Ber01]), sowie Einzelfallrekonstruktionen von Berufsbiographien von InformatikerInnen (vgl. [BH08]). Ferner wurden aus der Genderperspektive Einzelfallrekonstruktionen von weiblichen Jugendlichen im Hinblick auf ihren Umgang mit und ihr Interesse für Computer biographisch untersucht (vgl. [Rit94]). Im Forschungsprojekt Computernutzungsbiographien an der Freien Universität Berlin untersuchen wir mit einem biographischen Ansatz Welt- und Selbstbilder im Handlungskontext der Computernutzung (vgl. [KS07, SK07]). Sowohl SuS als auch InformstudienanfängerInnen haben ein sehr einseitiges Bild der Informatik, das sich vor allem im Hinblick auf den Studienabbruch und die Lernmotivation gravierend auswirkt. Für sie ist Informatik eine Computerwissenschaft, deren Inhalte sich um Computer, deren Nutzung und Wartung drehen. Aus dem eigenen Interesse für Computer und ihre Nutzung wird auf ein Interesse für Informatik, aus der eigenen Computernutzungskompetenz auf die Befähigung zum Informatikunterricht/-studium geschlossen. So ist es nicht wirklich verwunderlich, dass fast die Hälfte aller Studienanfänger das Informatikstudium vorzeitig abbricht, bei vielen mit der Begründung sich darunter etwas anderes vorgestellt zu haben. Es wird vermutet, dass die heimische Computernutzung und der IU dieses Bild maßgeblich beeinflussen und prägen. Auf der anderen Seite, hat die heutige Generation von Jugendlichen und jungen Erwachsenen nicht nur fast uneingeschränkten Zugang zu Computern und digitalen Artefakten, sondern verfügt auch über gute Computernutzungskompetenzen, die jedoch hauptsächlich außerhalb der Schule erworben werden. Es scheint, dass trotz gewisser Vertrautheit mit digitalen Artefakten, die Lernenden unterschiedliche Erfahrungen im Verlauf ihrer Schulzeit machen. Möglicherweise haben viele Lernende, besonders am Anfang, ähnliche Erlebnisse, die sie jedoch unterschiedlich verarbeiten, deuten und interpretieren. Es scheint also, dass für manche die eigene Computernutzung einen Weg in die Informatik ebnet, während sie für andere möglicherweise in einer Sackgasse endet. Welche Rolle der IU dabei spielt, ob er gewisse Erlebnisse oder Vorstellungen und Erwartungen bestärkt oder neue Erfahrungen hinzufügt, ist unklar und bedarf weiter Klärung. Studien, die zu diesem Thema bisher durchgeführt wurden, haben unterschiedliche Ein- - 28 - zelfaktoren wie z.B. Geschlecht und rollenspezifisches Verhalten, Mathematik- oder Programmiervorkenntnisse, Selbsteinschätzung der eigenen Fähigkeiten erforscht. In unserem Forschungsprojekt verfolgen wir eine ganzheitliche Sicht, die als Schwerpunkt die vorgefassten Meinungen eines einzelnen, dessen konzeptionelles Bezugssystem zum Fach sowie dessen Entwicklung verstehen will. Das Ziel ist jedoch nicht zu beweisen, welche Faktoren nun ausschlaggebend sind, sondern zu erforschen, wie die biographische Entwicklung eines Menschen ein kohärentes Bezugssystem zwischen all diesen Einzelfaktoren bildet. Die Welt- und Selbstkonstruktionen, die hier interessieren, werden aus der Perspektive der Informatik und da insbesondere in Bezug auf die Computernutzung betrachtet. Die in diesem Zusammenhang stehenden Forschungsfragen sind: ∙ Welche biographischen Lernprozesse und damit zusammenhängende Bildungsprozesse entwickeln sich im Lernfeld der Computernutzung? ∙ Welche Erfahrungen machen Lernende mit der Computernutzung und im IU? ∙ Gibt es über die Computernutzung mögliche Wege in die Informatik und wenn ja, welche? Welche Rolle spielt dabei der IU? Um diese Fragen zu beantworten, wird ein reaktives Datenerhebungsinstrument verwendet, bei dem TeilnehmerInnen gebeten werden, ihre persönlichen bisher gemachten Erfahrungen und Erlebnisse mit dem Computer in Form ihrer eigenen Autobiographie zu rekonstruieren und aufzuschreiben. Mit der Schreibaufforderung werden den TeilnehmerInnen kurze Textauszüge aus anderen Biographien vorgelegt, die den eigenen Schreibprozess anregen (vgl. [KS06]). Diese Form der Datenerhebung ist anders als ein narratives Interview, denn es fehlt die interaktive Bezugnahme der ForscherInnen. Die schreibende Person ist in ihrem retrospektiven Reflexionsprozess alleine und ungestört und kann sich so möglicherweise mehr öffnen und Einblicke gewähren, als in einem Interview. Der Schreibprozess wirkt anregend und fördert eine gewisse Notwendigkeit die ganze“ Geschichte zu erzählen. Zusätzlich wer” den solche biographischen Elemente notiert, die immer noch so wichtig und präsent sind, dass sie spontan erinnert werden können. Auch wenn die Computerbiographie damit nie vollständig alle Erlebnisse und Fakten schildert, so stellt sie doch eine Auswahl der wichtigsten Momente dar. Man kann also annehmen, dass fehlende Elemente sich entweder nicht ereignet haben, oder vergessen wurden. Dieser Umstand ist jedoch vernachlässigbar, da es nicht darum geht die tatsächlichen Fakten eines Lebenslaufs zusammenzutragen, sondern die Subjektperspektive im Handlungskontext der Computernutzung zu rekonstruieren. In unserem Forschungsprojekt wurden mehrere Studien mit diesem Dateninstrument durchgeführt. Hierbei wurden Computerbiographien von InformatikstudienanfängerInnen erhoben ausführlich untersucht und mit Biographien von Studierenden im Studiengang Deutsch auf Lehramt sowie Psychologie verglichen (vgl. [KS06, KS07, SK07, KR08]). In der aktuellen Hauptstudie wurden 7 InformatikstudienanfängerInnen drei Monate nach Studienbeginn und nach Erhebung der Computerbiographie in einem Leitfaden gestützten Interview nochmal ausführlich zu ihrer Biographie der Computernutzung und ihrem Weg in die Informatik befragt. Alle bisherigen Ergebnisse stützen die Vermutung, dass für manche Ler- 29 - nenden die Computernutzung einen Weg in die Informatik darstellt. Dazu muss die Person jedoch eine Reihe verschiedener Tätigkeiten am Computer durchlaufen, die idealtypisch als ein vierstufiger Prozess verstanden werden können, der den Übergang zwischen dem Nutzen und Gestalten von Computeranwendungen markiert: 1. Einfaches erstes Bedienen von Anwendungen, wie sie für NutzerInnen zum bedienen vorgesehen sind 2. Komplexere Bedienvorgänge, die auch die Metaebene“, d.h. die Computeradminis” tration umfassen - z.B. Einstellungen, Konfigurationen oder Wiederherstellen von Funktionalität 3. Einfaches Gestalten, bei dem vorgegebene Elemente einer Anwendung in ihrer Struktur verändert werden - z.B. das Erstellen einer Webseite, ein kleines Skript etc. 4. Gestalterische Tätigkeiten, bei denen eigene Anwendungen selbst entwickelt werden - z.B. das entwickeln und programmieren eines Spiels. Umfasst der biographische Lernprozess einer Person Erfahrungen auf diesen verschiedenen Ebenen des Nutzens und Gestaltens, erschließt sich ihr damit ein Welt- und Selbstbild der Informatik, das Anknüpfungspunkte für weitere informatische Bildung sowohl im IU als auch in einem Informatikstudium ermöglicht. Erst wenn eine Person den Unterschied zwischen Nutzen und Gestalten informatischer Artefakte erlebt und verstanden hat, kann sie gestalterische Kompetenzen wie z.B. das Programmieren im IU für sich als sinnvoll deuten - erst dann wird eine solche Kompetenz Teil des informatischen Bildungsprozesses. 5 Ausblick In diesem Artikel wurde argumentiert, dass die bisherige Debatte um informatische Bildung und die sich daran anschließende Forschung hauptsächlich auf Inhalte und Methodik fokussiert. Doch gerade weil durch die Bildungsstandards eine erste Konsolidierung dieser inhaltlichen Auseinandersetzung erfolgt ist, muss nun verstärkt das Individuum informatischer Lehr-Lern- und Bildungsprozesse in den Blickpunkt genommen werden. Wenn wir die Vorgeschichte, die bisher gemachten Erfahrungen, Kenntnisse, Vorstellungen, also Welt- und Selbstbilder der Lehrenden und Lernenden nicht kennen, werden fachdidaktische Ansätze in ihrer Wirksamkeit begrenzt bleiben. Die Qualitative Biographieforschung bietet dazu verschiedene Anknüpfungspunkte an. Vor allem Untersuchungen im Bereich der Unterrichtsforschung fehlen. Hier kann auf theoretische und methodologische Konzepte der Bildungsgangforschung angeknüpft werden. Diese hat eine Reihe von Unterrichtsstudien z.B. zu Interessensentwicklung und individueller Sinnkonstruktion von SuS im Physik- und Mathematikunterricht durchgeführt. Solche Studien wären auch für den Informatikunterricht wichtig, da die SuS sich vielfach wie im Physik- und Mathematikunterricht schwer tun, Interesse zu entwickeln und Anknüpfungspunkte zwischen ihrer persönlichen Lebenswelt und informatischer Bildung zu sehen. - 30 - Literatur [Ber01] Peter Berger. Computer und Weltbild. VS Verlag für Sozialwissenschaften, Wiesbaden, 2001. [BH08] Gila Brandt-Herrmann. Typische Biographien untypischer Informatiker: Bildungsprozesse in Berufsbiographien von Informatikern. Waxmann, 2008. [Bla86] Herwig Blankertz. Lernen und Kompetenzentwicklung in der Sekundarstufe II: Abschlußbericht der wissenschaftlichen Begleitung Kollegstufe NW. Curriculumentwicklung in Nordrhein-Westfalen. Soester Verl.-Kontor, Soest, 1986. [Blu06] Werner Blum. Die Bildungsstandards Mathematik: Einführung. In Werner Blum, Christina Drüke-Noe, Ralph Hartung und Olaf Köller, Hrsg., Bildungsstandards Mathematik: konkret: Sekundarstufe I: Aufgabenbeispiele, Unterrichtsanregungen, Fortbildungsideen, Seiten 14–32. Cornelsen Scriptor, Berlin, 2006. [Eca06] Jutta Ecarius. Biographieforschung und Lemen. In Heinz-Hermann Krüger und Winfried Marotzki, Hrsg., Handbuch erziehungswissenschaftliche Biographieforschung, Seiten 91–108. VS Verlag für Sozialwissenschaften, Wiesbaden, 2006. [Her08] Uwe Hericks. Bildungsgangforschung und die Professionalisierung des Lehrerberufs – Perspektiven für die Allgemeine Didaktik. In Meinert A Meyer, Stephanie Hellekamps und Manfred Prenzel, Hrsg., Perspektiven der Didaktik, Jgg. 9 of Zeitschrift für Erziehungswissenschaft: Sonderheft, Seiten 61–75. VS Verlag für Sozialwissenschaften, Wiesbaden, 2008. [Hey96] Hans Werner Heymann. Allgemeinbildung und Mathematik. Beltz Verlag, Weinheim und Basel, 1996. [Hum09] Ludger Humbert. Informatikdidaktik - Einschätzung der Landschaft. In Bernhard Koerber, Hrsg., 13. GI-Fachtagung Informatik und Schule (INFOS): Zukunft braucht Herkunft - 25 Jahre INFOS, Lecture Notes in Informatics. Köllen Druck+Verlag, 2009. [Kla86] Wolfgang Klafki. Die Bedeutung der klassischen Bildungstheorien für ein zeitgemäßes Konzept allgemeiner Bildung. Zeitschrift für Pädagogik, 32(4):455–476, 1986. [Kla07] Wolfgang Klafki. Neue Studien zur Bildungstheorie und Didaktik: Zeitgemäße Allgemeinbildung und kritisch-konstruktive Didaktik. Beltz Verlag, Weinheim, 6. auflage. Auflage, 2007. [Kol05] Hans-Christoph Koller. Bildung und Biographie. Zur Bedeutung der bildungstheoretisch fundierten Biographieforschung für die Bildungsgangforschung. In Barbara Schenk, Hrsg., Bausteine einer Bildungsgangtheorie, Jgg. 6 of Studien zur Bildungsgangforschung, Seiten 47–66. VS Verlag für Sozialwissenschaften, Wiesbaden, 2005. [KR08] Maria Knobelsdorf und Ralf Romeike. Creativity as a pathway to computer science. In ITiCSE ’08: Proceedings of the 13th annual conference on Innovation and Technology in Computer Science Education, Seiten 286–290. ACM, 2008. [KS06] Maria Knobelsdorf und Carsten Schulte. Computer Biographies - A Biographical Research Perspective on Computer Usage and Attitudes Towards Informatics. In Tapio Salakoski, Tomi Mätylä und Mikko Laakso, Hrsg., Proceedings of the 5th Baltic Sea Conference on Computer Science Education: Koli 2005, Jgg. 41. TUCS General Publication, 2006. - 31 - [KS07] Maria Knobelsdorf und Carsten Schulte. Das informatische Weltbild von Studierenden. In Sigrid Schubert, Hrsg., 12. GI-Fachtagung Informatik und Schule (INFOS) 2007: Didaktik der Informatik in Theorie und Praxis, Lecture Notes in Informatics, Seiten 69–79. Köllen Druck+Verlag, 2007. [Lec08] Mari-Annukka Lechte. Sinnbezüge, Interesse und Physik: Eine empirische Untersuchung zum Erleben von Physik aus Sicht von Schülerinnen und Schülern, Jgg. 23 of Studien zur Bildungsgangforschung. Verlag Barbara Budrich, Opladen&Farmington Hills, 2008. [Mar05] Winifred Marotzki. Qualitative Biographieforschung. In Uwe Flick, Ernst von Kardoff und Ines Steinke, Hrsg., Qualitative Forschung: Ein Handbuch, Seiten 175–186. Rowohlt, Reinbek bei Hamburg, 2005. [Mar06] Winfried Marotzki. Forschungsmethoden und -methodologie der Erziehungswissenschaftlichen Biographieforschung. In Heinz-Hermann Krüger und Winfried Marotzki, Hrsg., Handbuch erziehungswissenschaftliche Biographieforschung, Seiten 111–135. VS Verlag für Sozialwissenschaften, Wiesbaden, 2006. [Mey05] Meinert A. Meyer. Die Bildungsgangforschung und die allgemeine Didaktik. In Barbara Schenk, Hrsg., Bausteine einer Bildungsgangtheorie, Jgg. 6 of Studien zur Bildungsgangforschung, Seiten 17–46. VS Verlag für Sozialwissenschaften, Wiesbaden, 2005. [Mey09] Meinert A. Meyer. Abschlussbericht des DFG-Graduiertenkollegs 821: Bildungsgangforschung: http://www.epb.uni-hamburg.de/files/Abschlussbericht GRK-.pdf. Universität Hamburg, 2009. [Pu08] Hermann Puhlmann und u.a. Grundsätze und Standards für die Informatik in der Schule: Bildungsstandards Informatik für die Sekundarstufe I: Empfehlungen der Gesellschaft für Informatik e. V. erarbeitet vom Arbeitskreis ≫Bildungsstandards≪. Beilage zu LOG IN, 28(150/151), 2008. [Rit94] Martina Ritter. Computer oder Stöckelschuh? Eine empirische Untersuchung über Mädchen am Computer. Campus Verlag, Frankfurt a. M., 1994. [RU09] Kristina Reiss und Stefan Ufer. Fachdidaktische Forschung im Rahmen der Bildungsforschung: Eine Diskussion wesentlicher Aspekte am Beispiel der Mathematikdidaktik. In Rudolf Tippelt, Hrsg., Handbuch Bildungsforschung, Seiten 199–213. VS Verlag für Sozialwissenschaften, Wiesbaden, 2009. [Sch05] Theodor Schulze. Strukturen und Modalitäten biographischen Lernens. Zeitschrift für qualitative Bildungs-, Beratungs- und Sozialforschung, 6(1):43–64, 2005. [SK07] Carsten Schulte und Maria Knobelsdorf. Attitudes towards Computer Science - Computing Experiences as a Starting Point and Barrier to Computer Science. In ICER ’07: Proceedings of the 3rd Workshop on International Computing Education Research, Seiten 27–38. ACM, 2007. [Tra04] Matthias Trautmann. Entwicklungsaufgaben bei Havighurst. In Matthias Trautmann, Hrsg., Entwicklungsaufgaben im Bildungsgang, Jgg. 5 of Studien zur Bildungsgangforschung, Seiten 19–40. VS Verlag für Sozialwissenschaften, Wiesbaden, 2004. [Wit03] H. Witten. Allgemeinbildender Informatikunterricht? Ein neuer Blick auf H. W. Heymanns Aufgaben allgemeinbildender Schulen. In Peter Hubwieser, Hrsg., 10. GIFachtagung Informatik und Schule (INFOS) 2003: Informatische Fachkonzepte im Unterricht, Jgg. 32 of Lecture Notes in Informatics, Seiten 59–75. Köllen Druck+Verlag, 2003. - 32 - Wie funktioniert eigentlich das Internet? Empirische Untersuchung von Schülervorstellungen Ira Diethelm, Stefan Zumbrägel Universität Oldenburg Department für Informatik Abteilung Informatik in der Bildung 26111 Oldenburg [ira.diethelm|stefan.zumbraegel]@uni-oldenburg.de Abstract: Für viele Jugendliche ist das Internet ein wichtiger Teil ihres Lebens, doch bisher ist unerforscht, wie sie sich das Internet vorstellen und wie man diese Vorstellungen gewinnbringend für den Informatikunterricht einsetzen kann. Aus medienpädagogischen Studien und den Bildungsstandards Informatik der Gesellschaft für Informatik ergeben sich erste Hinweise auf die konkrete Nutzung des Internets durch Kinder und Jugendliche und auf eine mögliche Einbettung in den Informatikunterricht. Dieses Papier gibt einen Überblick über eine empirische, qualitative Untersuchung von Schülervorstellungen zur Funktionsweise des Internets. Dafür wurden Schülerinnen und Schüler der 7. und 8. Klasse mit einem Leitfaden gestützten Interview über EMail, Chat und Videostreaming befragt und mithilfe der qualitativen Inhaltsanalyse ausgewertet. Es zeigte sich, dass die Vorstellungen der Schüler von der wissenschaftlichen Sicht abweichen, es aber durchaus einige Modelle gibt, die in den Schülervorstellungen häufiger auftreten. Der Verlauf dieser Studie und einige prägnante Ergebnisse werden hier dargestellt. 1 Einleitung Die Darstellung informatischer Sachverhalte in Schulbüchern, sofern sie vorhanden sind, orientieren sich oft sehr stark an der wissenschaftlichen Literatur. In unserer Unterrichtserfahrung haben wir aber festgestellt, dass Schüler häufig Schwierigkeiten haben, die Themen aus solchen Büchern zu verstehen, sie aber mit eigenen Worten durchaus beschreiben können. In diesen Beschreibungen werden häufig interessante Bilder oder Beispiele genutzt, die oft auch anderen Schülern helfen können. Das Modell der didaktischen Rekonstruktion (vgl. z. B. [KRGK97]) greift dies auf und bindet die Schülervorstellungen mit in die Konstruktion des Unterrichts ein, gleichwertig zu den wissenschaftlichen Aussagen. Um dieses Modell auch in der Didaktik der Informatik nutzen zu können, ist es notwendig, die Schülervorstellungen zu Themenbereichen der Informatik zu kennen und somit zu untersuchen. Die Auswahl des Themas Internet begründet sich auf zwei Studien des Medienpädagogischen Forschungsverbundes Südwest zur Nutzung des Internets von Kindern und Jugendlichen (KIM und JIM, vgl. [MPFS08b, MPFS08a]), sowie den Bildungsstandards der - 33 - Gesellschaft für Informatik, [GI08]. Auf Grundlage dieser Papiere wurden Schüler der Klassen 7 und 8 mit Hilfe eines Leitfaden gestützten Interviews dazu befragt, wie sie sich die Funktionsweise des Internets vorstellen, insbesondere von ihnen stark genutzte Dienste wie E-Mail, Chat oder Videostreaming. Untersuchungen zu Schülervorstellungen bezüglich der Funktionsweise des Internets liegen bisher nicht vor. Das Ziel unseres Forschungsprojekt war es daher, zu erfahren, wie Schülervorstellungen aussehen und ob sie sich ggf. zu wenigen Modellen zusammenführen lassen, um diese später für die Konstruktion von Informatikunterricht nutzen zu können. In unserer Untersuchung wird deutlich, dass Schüler bestimmte Vorstellungen von der Funktionsweise des Internets haben und diese nutzen, um verschiedene Dienste zu beschreiben. Ebenso wird deutlich, dass diese Vorstellungen, zum Teil erheblich, von der wissenschaftlichen Beschreibung abweichen. Dieser Artikel basiert auf der Masterarbeit [Zu10] und teilt sich wie folgt in sechs Kapitel: In Kapitel 2 wird die Auswahl der Zielgruppe und des Themas näher dargestellt und daraus das Ziel unserer Untersuchung abgeleitet. Kapitel 3 beschreibt den Aufbau der Befragung. Unter anderem wird hier die Entscheidung für ein Leitfaden gestütztes Interview, sowie der Interviewleitfaden, die Erkenntnisse aus dem Pretest und die konkrete Durchführung beschrieben. In Kapitel 4 werden die durch die qualitative Inhaltsanalyse der Interviews erhaltenen Schülervorstellungen zur Funktionsweise des Internets vorgestellt. Einige prägnante Ergebnisse der Untersuchung werden in Kapitel 5 zusammengefasst. Wir schließen mit einer Reflektion und einem Ausblick auf mögliche weitere Schritte. 2 Kinder und Internet Das Internet prägt im aktuellen Informationszeitalter das tägliche Leben vieler Schülerinnen und Schüler. Dies belegen zwei Studien des Medienpädagogischen Forschungsverbund Südwest (MPFS) Kinder + Medien, Computer + Internet“ (KIM08) und Jugend, ” ” Information, (Multi-)Media“ (JIM08). Sie zeigen, dass das Thema Internet bei Kindern im Alter von 10 und 11 Jahren stark an Bedeutung gewinnt (vgl. [MPFS08b], S. 38) und im Alter von 13 bereits 93% aller Jugendlichen das Internet nutzen (vgl. [MPFS08a], S. 46). Schwerpunktmäßig werden dabei nach den Studien die Dienste E-Mail, Instant Messaging und Musik hören bzw. Videos ansehen genutzt. Diese Themenfelder finden sich auch in den Standards der GI in verschiedenen Themenbereichen wie zum Beispiel Informatiksysteme oder Sprachen und Algorithmen. Dabei ist eine eindeutige Zuordnung in die dort gebildeten Kategorien Jahrgangsstufe 5 bis 7“ und ” Jahrgangsstufe 8 bis 10“ nicht immer eindeutig möglich ([GI08], S. 13 ff). Es kann eher ” davon gesprochen werden, dass sich diese Themen in der Schnittmenge der beiden Kategorien befinden. Dadurch wird deutlich, dass die Standards in diesem Punkt sehr nah an der Lebenswelt der Kinder und Jugendlichen orientiert sind. Bei der Untersuchung von Schülervorstellungen ist es notwendig, dass die Schüler zu dem Thema, das untersucht werden soll, bereits Vorstellungen entwickelt haben bzw. sich in - 34 - einer Phase befinden in der sie diese entwickeln. Dazu muss dass Thema so gewählt werden, dass es in der zu befragenden Altersgruppe einen hohen Praxisbezug aufweist. Dies scheint mit ca. 13 Jahren bei den genannten Diensten gegeben zu sein. Somit ergeben sich für uns folgende Forschungsfragen: 1. Welche Vorstellungen von der Funktionsweise (für sie relevanter Dienste) des Internets haben Schülerinnen und Schüler dieser Altersgruppe? 2. Inwiefern nutzen die Schülerinnen und Schüler Modelle, evtl. aus dem Alltagsgeschehen, um die Abläufe im Internet zu erklären? Leu untersuchte bereits in den 1980er Jahren den Umgang verschieden alter Kinder mit Computern qualitativ, vgl. [Le93] S. 105ff. Darin stellt er große Unterschiede in der Altersgruppe ab 13 Jahre fest, wie Kinder den Computer beschreiben und erklären. Einige Kinder bleiben auf der gegenständlichen Ebene, einige Kinder nutzen eine funktionale Beschreibung. Diejenigen Schüler, die den Computer relativ häufig zum Spielen nutzten, waren bei der Erklärung des Computers denjenigen, die nur sehr wenig am Computer machen, keineswegs überlegen. Insgesamt findet er aber wesentlich konsistentere Beschreibungen bei Schülern, die schon Informatikunterricht hatten. Dies ist aus entwicklungsund kognitionspsychologischer Sicht nicht verwunderlich, aber dennoch für die Wahl der Stichprobe relevant. Zur Beantwortung unserer Forschungsfragen wurden somit 13- und 14-jährige Schülerinnen und Schüler zweier Schulen der Klassen 7 und 8 befragt. Um eine möglichst heterogene Gruppe der Befragten zu bilden und um möglichst vielfältige Antworten zu erhalten, stammen sie zum Teil aus einer ehrer stadtnahen Haupt- und Realschule sowie einer eher ländlichen Realschule. Dies sollte unterschiedliche Alltagserfahrungen und daraus resultierende Erklärungsmodelle aus der Natur oder dem Stadtleben in unsere Studie einbeziehen. Ein weiteres Auswahlkriterium für die befragten Schülerinnen und Schüler war eine ausgewogene Mischung von Mädchen und Jungen aus Klassen mit und ohne Informatikunterricht. Die Häufigkeit der Nutzung des Internets wurde vor der Auswahl nicht erhoben und spielte bei der Zusammenstellung der Stichprobe keine Rolle. Selbstverständlich nahmen die Jugendlichen freiwillig mit Erlaubnis ihrer Eltern und Genehmigung der zuständigen Landesschulbehörde und der Schulleiter an der Befragung teil. 3 Erhebung der Schülervorstellungen Diese Untersuchung ist unseres Wissens nach die erste, die sich mit Schülervorstellungen zur Funktionsweise des Internets beschäftigt. Der Stand der Forschung ist dementsprechend auch noch nicht so weit entwickelt, dass man hierfür in der Literatur ein zu erwartendes Modell1 finden könnte, dem die gefundenen Schülervorstellungen zugeordnet 1 Modellbegriff nach Stachowiak: Ein Modell ist ein von einem Subjekt zu einem bestimmten Zweck durch Abstraktion konstruiertes vereinfachtes Abbild eines Originals, vgl. z. B. [St92]. - 35 - werden könnten. Nach Bortz & Döring ([BD06]) handelt es sich bei unserer Hypothese daher um eine unspezifische Hypothese“. ” Demnach ist das Ziel, Modelle aufzuspüren und zu untersuchen, die bisher noch nicht bekannt sind. Hierfür eignet sich vor allem ein leitfadengestütztes Interview. Diese Form der Befragung bietet durch die im Leitfaden festgelegten Themen ein vergleichbares Gerüst für die anschließende Auswertung. Gleichzeitig bleibt aber ausreichend Raum, aus der Interviewsituation heraus neue Fragen oder Themen mit einzubeziehen, vgl. [BD06], S. 314). Dadurch ist es möglich auch auf Modelle zu reagieren oder überhaupt Modelle zu finden, die nicht erwartet wurden. In einem standardisierten Fragebogen zum Beispiel wäre dagegen eine solche Reaktion auf die Situation nicht möglich. Die Interviews fanden im Rahmen einer Feldforschung direkt in der jeweiligen Schule statt. Neben einem organisatorischen Vorteil bietet diese Methode vor allem eine hohe externe Validität (vgl. [BD06], S. 56). Dadurch, dass die Schüler sich in einer gewohnten Umgebung befanden, konnten sie sich ganz auf das Interview konzentrieren und wurden nicht durch externe Faktoren abgelenkt. Der Verlust an interner Validität, der dadurch entsteht, dass nicht alle Faktoren in der Schule beeinflussbar sind, kann dabei bewusst hingenommen werden. Dieser Verlust wird durch die zufällige2 Zusammensetzung der Gruppe zudem in weiten Teilen ausgeglichen. Die Untersuchung war mit 15 Interviews mit jeweils zwei Schülern geplant. Die Doppelinterviews wurden gewählt, um den Schülern auf der einen Seite Sicherheit zu geben, da auf jeden Fall eine bekannte Person mit dabei ist. Zudem bestand so die Möglichkeit, dass die Schüler sich gegenseitig motivieren und sie die Ideen des Interviewpartners aufnehmen und als Denkanstoß nutzen. Um die Kreativität der Schülerinnen und Schüler zu fördern, sollten verschiedene Materialien wie etwa Legosteine, Knete oder Papier und Stifte zur Verfügung gestellt werden, mit denen sie ihre Ausführungen ggf. erläutern konnten. 3.1 Aufbau des Interviewleitfadens Der entwickelte Leitfaden (vollständig in [Zu10]) besteht aus insgesamt fünf Frageblöcken, die eine unterschiedliche Anzahl an Fragen beinhalten. Er spiegelt die drei Bereiche EMail, Chat und Streaming wider. Zusätzlich gibt es einen Einleitungs- sowie einen Abschlussblock. Die beiden letztgenannten Blöcke haben im Interview einen festen Platz. Die anderen drei Blöcke können, je nach Gesprächsverlauf, in der Reihenfolge variiert werden. Auch Sprünge von einem Bereich zum nächsten und wieder zurück sind denkbar, sollen aber möglichst vermieden werden. Dieser Aufbau soll den Schülern möglichst viel Raum geben, eigene Vorstellungen zur Erklärung zu nutzen oder spontan solche zu entwickeln. Für den ersten und den letzten Block waren jeweils 5 Minuten und für die Blöcke dazwischen jeweils 10 Minuten geplant. Der Einleitungsblock hat den Zweck die Gesprächsatmosphäre zu lockern und eine Vertrauensbasis mit den Schülern zu schaffen. Durch Fragen, bei denen die Schüler aus ihrem Alltag erzählen, sollen die Schüler in einen ersten Redefluss kommen und evtl. Hemmun2 innerhalb der ausgewählten Klassen - 36 - gen abbauen, z. B. mit Was macht ihr mit dem Internet, wenn ihr es nutzt?“. Bei den ” Fragen in diesem Block geht es zudem darum, mehr über das Nutzungsverhalten der Interviewten zu erfahren und das folgende Interview darauf aufzubauen. So kann das Interview direkt an die Erfahrungen der Schülerinnen und Schüler anknüpfen. Im Abschlussblock werden die Vorerfahrungen und das allgemeine Interesse der Schülerinnen und Schüler am Themenbereich Informatik ermittelt. Dies dient vor allem dazu, die vorher getätigten Aussagen unter Berücksichtigung der Vorerfahrungen zu beurteilen. Diese Angaben bilden eine Art Sozialstatistik, die nach Bortz und Döring ([BD06], S. 315) am Ende eines qualitativen Interviews erfasst werden. Die drei weiteren Blöcke bilden den Hauptteil des Interviews. Sie dienen vor allem dazu, die o.g. Forschungsfragen zu beantworten. Dabei sind die Fragen so aufgestellt, dass jeder Block für sich abgeschlossen und die Reihenfolge variabel ist. Auch die Reihenfolge der Fragen innerhalb eines Blocks ist weitestgehend variabel. Diese drei mittleren Blöcke sind untereinander ähnlich aufgebaut. Zu Anfang wird ein Bezug zu der im Einstieg von den Schülern beschriebenen Situation hergestellt und für den entsprechenden Bereich weiter vertieft. Anschließend stellen die Schüler dar, wie der entsprechende Bereich nach ihrer Vorstellung funktioniert. Wieder am Beispiel IM sollen die Schülerinnen und Schüler dann anhand der von ihnen genutzten Programme beschreiben, wie sie glauben, dass das System Chat bzw. Instant Messaging funktioniert, z. B. Beschreibt, wie eine Nachricht von einem Computer zum anderen kommt.“ ” 3.2 Durchführung der Befragung In einem Pretest mit 5 Interviews wurde deutlich, dass Einzelinterviews zu Problemen führen können, da bei Einzelinterviews ohne gegenseitige Inspiration die Antworten deutlich kürzer waren. Die Materialien wie Legofiguren und -steine sowie Knete wurden im Pretest gar nicht oder nur sehr selten genutzt. Zudem meldeten einige Teilnehmer zurück, dass die Menge, der zur Verfügung gestellten Materialien, eher verwirrt, als dass Sie hilft. Lediglich die Möglichkeit, die eigenen Gedanken oder Erläuterungen durch eine Zeichnung zu unterstützen wurde häufig genutzt und auch von den Schülern für hilfreich befunden. Also wurden Doppelinterviews ohne weitere Materialien wie Knete etc. angestrebt. Nach der Kontaktaufnahme mit den Schulleitern, den Lehrern und den Genehmigungen erhielten wir die Möglichkeit unser Anliegen in den Klassen vorzustellen. Dabei war es wichtig, das Thema Internet in der Vorstellung nicht zu nennen, damit sich nicht einzelne Schüler bis zum Interview über den Themenbereich informieren. Sie bekamen lediglich die Information, dass es sich um eine Untersuchung von Schülervorstellungen handelt und das es sich bei dem Thema um ein ihnen sehr bekanntes handelt. Anschließend bekamen die interessierten Schülerinnen und Schüler ein Schreiben für die Eltern, auf dem diese unterschreiben konnten, dass sie mit dem Interview und dem Mitschnitt einverstanden sind. Beim Lehrer wurde eine Liste mit Terminen hinterlegt, in der sich die Schüler für die Interviews eintragen sollten. Dieses System funktionierte sehr gut, auch aufgrund der sehr guten Unterstützung von Seiten der Lehrer. Die Interviews fanden - 37 - dann in der Regel in einem Raum in der Schule statt. 4 Auswertung der Interviews Insgesamt gingen 11 Interviews mit 23 Schülerinnen und Schülern in die Auswertung ein. Bei den anderen vier geplanten Interviews kam es zu unterschiedlichen Problemen wie Krankheit der Schüler oder einer defekten Audiodatei. Die Interviews wurden während des Gesprächs mithilfe eines Diktiergerätes als mp3-Datei aufgezeichnet und anschließend transkribiert. Für dieses Forschungsvorhaben wurde die von Kuckartz beschriebene transkriptbasierte Analyse angewendet. Bei dieser Variante der Transkription werden die Interviews vollständig verschriftlicht (vgl. [Ku08], S. 39). Hierfür ist ein Regelwerk notwendig, das genau festlegt, wie die gesprochene Sprache in eine schriftliche Form übertragen wird. Die dabei auftretenden Informationsverluste sind nicht vermeidbar. Da es in dieser Untersuchung vordergründig um den Inhalt des Gesprochenen und nicht um Emotionen geht, ist dieser Verlust akzeptabel (vgl. ebd., S. 41). Da es keinen Transkriptionsstandard gibt, wurde für diese Untersuchung ein eigenes Transkriptionssystem festgelegt. Dieses orientiert sich an den von Kuckartz et al. (ebd., S. 27) aufgestellten Regeln. Die Auswertung der Transkripte erfolgte nach der qualitativen Datenanalyse von Mayring, vgl. [Ma08], unter Einsatz von maxQDA. Für die Auswertung der Daten haben wir die zusammenfassende Datenanalyse gewählt. Sie lässt sich nach Mayring für eine induktive ” Kategorienbildung einsetzen“ (ebd., S. 74) bei der die Kategorien direkt aus dem Material abgeleitet werden. Dies geschieht in einem Verallgemeinerungsprozess und muss sich demnach nicht auf vorab formulierte Theoriekonzepte beziehen. Dies ist notwendig, da es, wie bereits beschrieben, keine Voruntersuchungen gibt, die als theoretische Grundlage für ein Kategoriensystem genutzt werden könnten. Die Kategorienbildung erfolgte gemäß [Ma08] in mehreren Schritten. Als Ergebnis der ersten Schritte sind einzelne Kategorien mit zum Teil sehr vielen zugeordneten Textstellen entstanden. Zur besseren Auswertung der Kategorien wurden die Textstellen innerhalb einer Kategorie thematisch zusammengefasst. Die dadurch entstandenen Unterkategorien enthalten Textstellen, die einen speziellen Bereich der Hauptkategorie darstellen. So wurde zum Beispiel die Kategorie Adressierung unterteilt in die Unterkategorien Wohnort, Kennwörter, Adressen des Rechners / Routers, Einmaligkeit der Namen, E-Mail-Adressen und eigener Name. Diese stellen spezielle Eigenschaften oder Ausprägungen der jeweiligen Hauptkategorie dar. Das endgültige Kategoriensystem ist durch die weitere thematische Zusammenfassung der Kategorien entstanden und umfasst fünf Bereiche, die im Folgenden näher erläutert werden. Die dabei angegebenen Prozentzahlen beziehen sich auf den Anteil der Schüler in unseren Interviews und sind nicht repräsentativ aufzufassen. Für die vollständige Auswertung und ausführliche Liste der gefundenen Modelle sei auf die Masterarbeit [Zu10] verwiesen. - 38 - 4.1 Vorstellungen zur Übertragungstechnik Hier wird dargestellt, wie die Schüler sich vorstellen, wie Daten bzw. Informationen im Internet von einem Rechner zum anderen gelangen. Zusätzlich hat sich aus dem Interviewmaterial ergeben, wie sich Schüler die Übertragung von Daten auf Ebene der Bitübertragungsschicht vorstellen. Dieser Bereich unterteilt sich in folgende Unterbereiche: Adressierung: Aus den hier gebildeten Kategorien wurde deutlich, dass die Schüler ein Gefühl dafür haben, dass es eine einmalige Adresse geben muss, damit Daten und Informationen im Internet versendet werden können. Knapp 40% der befragten Schüler gaben ein System an, dass dem der IP-Adressen sehr nahe kommt. Viele Schüler haben angegeben, dass die Adressierung über einen einmaligen, eigenen Namen, die E-Mail-Adresse oder den Wohnort, der z. B. bei der Einrichtung der E-Mail-Adresse angegeben werden muss, geschieht. Geschwindingkeit: In den Interviews wurde den Schülern häufiger die Frage gestellt, woran es liegt, dass Daten, Nachrichten oder Videos einige Zeit brauchen, um übertragen zu werden und warum es mal schneller und mal langsamer geht. Die meisten Schüler (ca. 40%) erklären vor allem unterschiedliche Geschwindigkeiten damit, dass ein zentraler Rechner nur eine begrenzte Kapazität hat und er bei zu vielen Anfragen nicht alle auf einmal abarbeiten kann. Wenig überraschend dabei ist, dass die gleiche Anzahl von Schülern in dem später noch darzustellenden Bereich Aufbau von einem zentralen Rechner im Internet spricht. Häufiger angegeben wurde zudem, dass durch ein dickes Kabel mehr Daten gesendet werden können als durch ein dünnes. In den Antworten beschrieben die Schüler, dass bei größeren Paketen, womit größere Dateien und umfangreichere Texte gemeint sind, die Übertragung länger dauert. Hieraus ergibt sich auch, das diese Schüler davon ausgehen, dass Dateien oder Texte immer als Ganzes übertragen werden. Im nächsten Bereich wird sich zeigen, dass diese Vorstellung häufiger vorkommt. Paktetierung: Diese Kategorie ergibt ein sehr gemischtes Bild. Die Zahl der Schüler, die ein System beschreiben, in dem Daten unterteilt in einzelne Pakete verschickt werden, ist nahezu identisch mit der Zahl, die keine Teilung in Datenpakete beschreiben. Interessant ist, dass dieselben Schüler dies in unterschiedlichen Bereichen durchaus unterschiedlich sehen. So beschreibt ein Schüler für Texte, dass die Übertragung in einzelnen, unterschiedlichen Wellen geschieht, die am Ende wieder als Text ausgelesen werden können. Für Videos beschreibt er allerdings, dass diese am ganzen Stück durch die Leitung geschoben“ ” werden. Insgesamt kann man sagen, dass die wenigsten der Schüler eine Paketierung, wie sie im TCP/IP-Protokoll vorkommt, beschrieben haben. Physikalische Übertragung: Die Kategorien zeigen ein Gesamtbild, das darauf schließen lässt, dass die Schüler keine ausgeprägten Vorstellungen haben, wie die Übertragung zwischen den Rechnern abläuft. Lediglich 40% der interviewten Schüler äußern die Form Leitung oder Funkübertragung“. Es gab keine Schüler, die eine Kombination aus beidem ” erwähnt haben. Lediglich 3 von 23 befragten Schülern haben die Umwandlung von Text in irgendeine Art von Code zur Übertragung genannt. - 39 - 4.2 Vorstellungen zum Aufbau des Internets Auffällig ist hier, dass etwa 40% der befragten Schüler sich einen zentralen Rechner vorstellen, über den das Internet läuft. Knapp 50% hingegen denken, dass es mehrere zentrale Rechner gibt. Dabei ist allerdings zu beachten, dass auch hier die Aussagen einiger Schüler widersprüchlich sind. So beschreibt etwa ein Schüler am Beginn des ersten Interviews, dass es einen Hauptcomputer bzw. ein Hauptgerät gibt, durch das alles durchgeht. Im weiteren Verlauf des Interviews stellt er dann selbst fest, dass dieses Modell nicht 100%ig passt. Daraufhin merkt er an, dass es sicherlich mehrere Hauptcomputer gibt. Ähnliches zeigt sich auch in anderen Interviews. 4.3 Vorstellungen zu Internetdiensten Chat und IM: In diesem Bereich fällt als erstes auf, dass ca. 50% dieser Schüler das Schreiben von Nachrichten auf Pinnwänden oder in Gästebüchern wie etwa bei StudiVZ als Chatten bezeichnen. Da lediglich ein Schüler zwischen Chat und Instant Messaging unterscheidet, können die beiden Systeme für die Analyse gleichgesetzt werden. Von den Schülern werden aber beide Prinzipien genannt. So beschreiben 13,04%, dass die Verbindung bzw. die Kommunikation über den Server läuft, was dem System des Chats entspricht. Dagegen sind die 34,78%, die eine Direktverbindung zwischen den Computern beschreiben, dem System des Instant Messaging sehr nahe. 34,78% der Schüler beschreiben, dass man sich bei Chat bzw. Instant Messaging Systemen in einem eigenen Bereiche bzw. Netzwerk bewegt. Streaming: In diesem Bereich stehen sich zwei sehr unterschiedliche Konzepte gegenüber. Während die 34,78% angaben, dass das Video auf dem eigenen PC läuft, was der Theorie sehr nahe kommt, beschreiben 26,08%, dass das Video im Internet läuft. Hierbei gibt es sehr unterschiedliche Ideen. So wurde zum Beispiel genannt, dass das Video auf einem Server abgespielt wird und man selbst etwa, wie im Kino, auf die Leinwand schaut. Interessant ist auch die Aussage von zwei Schülern, die in der Zeit, in der das Video geladen wird, nicht davon ausgehen, dass Daten vom Server auf den Rechner geladen werden. Nach ihrer Aussage sendet der eigene Rechner Signale aus, damit der Server weiß, welches Video angezeigt werden soll. Interessant ist auch, dass ca. 9% der Schüler angegeben, dass das Video, nachdem man es abgespielt hat, nicht gelöscht wird, sondern wieder an den Server zurückgesendet wird. 4.4 Nutzung von Modellen Bis auf das Modell der Post, das sehr häufig als Beispiel für E-Mail genannt wurde, zeichnen sich nur sehr wenige Modelle ab, die häufiger genannt wurden. Aufgrund der Vielzahl der unterschiedlichen Modelle möchten wir uns an dieser Stelle auch nicht auf jedes einzelne eingehen, sondern diejenigen näher betrachten, die entweder häufiger genannt - 40 - wurden oder die wir besonders erwähnenswert finden. Im Bereich Adressierung ist das Modell Fächer in der Schule“ interessant. Dabei geht es ” nicht um Unterrichtsfächer, sondern um persönliche Fächer in denen eigene Unterlagen abgelegt werden können. Dieses Modell wurde zum einen für Adressierung ( Woher weiß ” die Nachricht, wo sie hin muss?“) genutzt um zu erklären, wie der Sender das Ziel findet, als auch für den Bereich E-Mail um zu erklären, wie E-Mails versendet werden und der Benutzer an seine E-Mails kommt, ohne die der anderen zu lesen. Zwei Modelle stechen im Bereich der physikalischen Übertragung hervor. Auf der einen Seite steht das Modell, dass kleine Männchen in den Leitungen herumlaufen, die die Daten von einem Ort zum anderen tragen. In einem anderen Modell beschreiben die Schüler die Daten wie Schlangen, die sich durch die Leitung bewegen. Wenn dort ein Engpass ist, wollen zu viele Schlangen gleichzeitig durch. Wenn eine Schlange zu dick ist, z. B. weil die Datei nicht in eins durch die Leitung passt, wird sie in die Länge gedrückt. Auch im Bereich Aufbau des Internets gibt es zwei erwähnenswerte Modelle. Gut nachvollziehen lässt sich das Modell zweier Schüler die das Internet wie eine Straße mit vielen Kreuzungen beschrieben haben. An den Kreuzungen standen immer Wegweiser, die zeigten, wohin man als nächstes muss. An den Straßen standen Häuser mit Adressen, an die etwas geschickt werden kann. Ebenso interessant ist die Darstellung dreier Schüler in unterschiedlichen Interviews, die angaben, dass im Internet an verschiedenen Stellen Personen arbeiten und Daten sortieren, E-Mails weiterleiten oder andere Aufgaben übernehmen. Das Modell, Chat durch Telefon zu beschreiben ist ebenfalls ein interessanter Ansatz. Dabei geht es vor allem darum, dass die Verbindung zwischen zwei Chatpartnern wie früher bei der Vermittlung im Telefonbereich funktioniert, dass also die Leitungen zusammen” gesteckt“ werden. Beim Streaming gibt es drei Modelle: Am naheliegendsten ist das Modell der Videothek, bei der man Videos ausleihen kann, warten muss, bis die Verkäuferin das Video geholt hat und anschließend nur so weit den Film wiedergeben kann, wie der DVD-Player ihn schon abgespielt hat. Das Modell des Vorlesens hingegen wurde in diesem Bereich von den Schülern am häufigsten genannt. Hier wird Streaming mit Vorlesen von Briefen oder Büchern verglichen. Die Tatsache, dass man selbst immer nur so weit Dinge wiedergeben kann, wie man sie vorgelesen bekommen hat, beschreibt die Übertragung des Videos und auch damit zusammenhängende Wartezeiten, wenn das Video noch nicht weit genug geladen wurde. Das Verschwinden des Videos, wenn der Browser geschlossen wird, wurde damit erklärt, dass man sich als Mensch auch nicht alles merken kann. Ein drittes sehr interessantes Modell ist das Blätter legen“. Dabei werden einzelne Buchstaben jeweils ” auf ein Blatt geschrieben und diese Blätter auf einem Stapel liegen. Bei der Übertragung wird jeweils ein Blatt vom einen auf den anderen Stapel gelegt. Ist der Vorgang des Legens schneller als der neue Zettel zu schreiben, muss mit dem Weiterlegen gewartet werden. Für E-Mail wurde am häufigsten das Modell Post verwendet. - 41 - 4.5 Anwendung von Modellen Etwas mehr als die Hälfte der befragten Schüler haben versucht, mit ihrem im Interview genannten Modell auch im weiteren Verlauf des Interviews andere Funktionen zu erklären. Dieser Ansatz war in nahezu allen Interviews zu erkennen. Lediglich in einem Interview wurde dies nicht genannt. Daraus schließen wir, dass die Schüler ein Modell, dass sie im Kopf haben, auch benutzen, um andere Dinge zu erklären. Dies ist aus kognitionspsychologischer Sicht auch zu erwarten gewesen. 5 Zusammenfassung der Ergebnisse Aus der oben beschriebenen Kategorisierung der Schülerantworten lassen sich folgende Ergebnisse in Bezug auf Schülervorstellungen und genutzte Erklärungsmodelle zum Internet zusammenfassen. Ergebnis 1: Vorstellungen können nicht mit einem oder wenigen Modellen dargestellt werden. Das zentrale Ergebnis dieser Untersuchung ist, dass es nicht möglich ist, die Schülervorstellungen zu diesem Themengebiet mit einem oder wenigen Modellen darzustellen. Die Kategorien, die im Rahmen der Auswertung gefunden wurden, zeigen viele unterschiedliche Ansätze, wie sich Schüler vorstellen, dass Dienste wie E-Mail oder Chat funktionieren. Im Bereich Aufbau des Internets“ beispielsweise geben etwa 40% der befrag” ten Schüler an, dass sie sich das Internet als einen zentralen Rechner vorstellen. Ca. die Hälfte der Schüler beschreibt dagegen den Aufbau mit mehreren zentralen Rechnern. In anderen Bereichen, wie etwa der Adressierung, zeigt sich eine große Nähe der Schülervorstellungen zu den wissenschaftlichen Darstellungen. Demgegenüber wird aber z. B. bei der physikalischen Datenübertragung sehr deutlich, dass sich viele Schüler bis dato noch keine Gedanken gemacht haben was bei der Übertragung passiert. Ergebnis 2: Schüler nutzen Modelle Die Frage ob Schülerinnen und Schüler überhaupt Modelle nutzen, um ihre Vorstellungen über die Funktion des Internets darzustellen, kann hingegen eindeutig mit Ja beantwortet werden. Sie haben Ideen und bringen ihre Alltagserfahrungen mit ein. Das auffallendste Modell ist das Modell der Post, das auch bereits häufig im Unterricht verwendet wird. Es wurde von den Schülern sehr häufig für E-Mail aber zum Beispiel auch für Adressierung allgemein genannt, was durch die verhältnismäßig vielen Parallelen zu erklären ist. Auch wird das Internet oft als . Es gibt aber auch andere interessante Modelle wie etwa das Blätterweiterlegen und/oder Vorlesen für Streaming, bei dem es darum ging, dass Blätter von A nach B gelegt werden und es nur möglich ist, die Blätter zu lesen, die schon übertragen“ wurden. Ein anderes ist, dass ein Online-Film als eine dicke Schlange be” schrieben wird, die länger wird, wenn sie durch eine dünne Leitung gepresst wird. Auch, dass kleine Männchen in den Leitungen herumlaufen, die die Daten von einem Ort zum - 42 - anderen tragen3 , wird häufig genannt. Zusätzlich sind auch viele einzelne überraschende Vorstellungen zu erkennen, z. B. dass im Internet Personen sitzen, die die E-Mails verteilen. Gerade aus solchen, relativ abwegigen Fällen schließen wir, dass die Schüler in diesem Alter die Entwicklung ihrer Modelle noch nicht abgeschlossen haben. Ergebnis 3: Modelle werden wiederverwendet Etwa die Hälfte der Schülerinnen und Schüler haben konkret versucht, mit ihrem im Interview genannten Modell auch im weiteren Verlauf des Interviews andere Funktionen zu erklären. Dieser Ansatz war in nahezu allen Interviews zu erkennen. Daraus schließen wir, dass die Schüler ein Modell, dass sie für einen Sachverhalt haben, auch zur Erklärung anderer Dinge benutzen. Ergebnis 4: Das Sprechen über eigene Vorstellungen motiviert die Schülerinnen und Schüler Eher eine Randerscheinung aber dennoch wichtige Beobachtung ist, dass viele Schüler im Anschluss an die Interviews viele Fragen über das Thema stellten. Sie bezogen sich vor allem darauf, wie das Internet denn nun wirklich funktioniert. Durch die Interviews wurde demnach ein großes Interesse an der Thematik des Interviews geweckt oder zumindest gestärkt. Dies kann also für Unterrichtsplanungen in diesem Bereich genutzt werden. 6 Reflektion und Ausblick Zusammenfassend hat sich gezeigt, dass es viele unterschiedliche Modelle gibt, die von den verschiedensten Schülern genutzt werden. Die Vorstellung der Schülerinnen und Schüler weichen dabei zum Teil in einem erheblichen Maße von der wissenschaftlichen Sicht ab. Die Beobachtungen lassen aber auch den Schluss zu, dass viele Schüler vermutlich erst im Laufe des Interviews solche Modelle entwickeln. Die Auswahl der Thematik und der entsprechenden Zielgruppe hat sich als sinnvoll erwiesen. Nahezu alle Schüler verwenden die ausgewählten Dienste oder wussten zumindest, worum es dabei geht, obwohl unsere Befragten nicht in einem so hohen Anteil wie in der JIM-Studie der MPFS E-Mail nutzen. Da der Modellbildungsprozess bei den Schülerinnen und Schülern dieses Alters noch nicht abgeschlossen scheint, und nach unserern Beobachtungen gerade für einige Schüler der siebten Jahrgangsstufe das Abstraktionsniveau grenzwertig war, sind weitere Untersuchungen mit älteren Schülern erstrebenswert. Den Nutzen, für Lehrkräfte in der Informatik, an den Ergebnissen dieser Untersuchung sehen wir vor allem in zwei Bereichen, insbesondere für die Sekundarstufe I: Schülervorstellungen als Grundlage für die Unterrichtsplanung Ähnlich zu den Interviews kann auch der Unterricht auf Grundlage der Vorstellungen der Schülerinnen und Schüler geplant werden. Die können für den Unterrichtseinstieg oder zur bildlichen Darstellung von Unterrichtsinhalten genutzt werden und zur wissenschaftlichen Sichtweise in Beziehung gesetzt werden. 3 Parallele zur Sachgeschichte Wie funktioniert das Internet?“, vgl. [WDR99] ” - 43 - Schülervorstellungen als Hintergrundwissen Lehrer, die mögliche Schülervorstellungen kennen, können im Unterricht oder in Prüfungssituationen auf entsprechende Aussagen besser reagieren und so Lernprozesse besser fördern. Als Weiterführung dieser Untersuchung sind verschiedene weitere Schritte möglich. Sinnvoll wäre eine Folgestudie, die sich mit einzelnen Aspekten oder Kategorien noch intensiver auseinandersetzt und so das Kategoriensystem verfeinert. Weitere Befragungen von Schülern unterschiedlicher Altersstufen können verglichen werden, um Hinweise auf eine zeitliche Entwicklung der Schülervorstellungen zu erhalten. In jedem Fall aber sollten die Erkenntnisse in die Praxis übertragen und Unterrichtsbeispiele entwickelt und evaluiert werden. Literatur [BD06] Bortz, J., Döring, N.: Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler, 3. überarbeitete Auflage, Springer, Berlin/Heidelberg, 2006. [GI08] Gesellschaft für Informatik: Grundsätze und Standards für die Informatik in der Schule, 2008. Abgerufen am 02. März 2010 von http://www.sn.schule.de/ ˜istandard/bildungsstandards_2008.pdf [Ku08] Kuckartz, U., Dresing, T., Stefer, C., Rädiker, S.: Qualitative Evaluation - Der Einstieg in die PraxiS. Wiesbaden: VS Verl. für Sozialwiss. 2007. [KRGK97] Kattmann, U., Reinders, D., Gropengießer, H., & Komorek, M.: Das Modell der Didaktischen Rekonstruktion - Ein Rahmen für naturwissenschaftsdidaktische Forschung und Entwicklung, Zeitschrift für Didaktik der Naturwissenschaften, 1997, S. 3-18. [Le93] Leu, H. R.: Wie Kinder mit Computern umgehen - Studie zur Entzauberung einer neuen Technologie in der Familie, DJI Verlag, München, 1993. [Ma08] Mayring, P.: Qualitative Inhaltsanalyse - Grundlagen und Techniken, 10. Auflage, Beltz Verlag, Weinheim und Basel, 2008. [MPFS08a] MPFS - Medienpädagogischer Forschungsverbund Südwest - JIM-Studie, 2008. Abgerufen am 12. 03 2010 von http://www.mpfs.de/fileadmin/JIM-pdf08/ JIM-Studie_2008.pdf [MPFS08b] MPFS - Medienpädagogischer Forschungsverbund Südwest - KIM-Studie, 2008. Abgerufen am 12. 03 2010 von http://www.mpfs.de/fileadmin/KIM-pdf08/ KIM2008.pdf [St92] Stachowiak, H.: Modell, In: H.Seiffert u. R. Radnitzky (Hrsg.): Handlexikon zur Wissenschaftstheorie, (S.219-223), dtv Verlag, München, 1992 [WDR99] WDR: Die Sendung mit der Maus. Sachgeschichten: Wie funktioniert das Internet?; zuletzt besucht 10.04.2010, http://www.wdrmaus.de/sachgeschichten [Zu10] Zumbrägel, S.: Empirische Erhebung von Schülervorstellungen zur Funktionsweise des Internets, Masterarbeit, Univeristät Oldenburg, 2010. - 44 - Erste Ergebnisse einer Lehrerbefragung zum bayerischen Schulfach Informatik Peter Hubwieser [email protected] Andreas Mühling [email protected] Torsten Brinda [email protected] Abstract: Im Herbst 2004 begann für die 6. Klassen aller bayerischen Gymnasien der neu konzipierte Pflichtunterricht in Informatik. Die Autoren haben dazu im Herbst 2009 eine erste Umfrage unter den bayerischen Informatiklehrerinnen und -lehrern durchgeführt. Unter anderem wollten wir damit auch herausfinden, inwieweit fachliche Vertrautheit mit den Unterrichtsthemen Einfluss auf die Einstellung gegenüber dem Fach Informatik hat. Mithilfe einer latenten Klassenanalyse konnten wir vier verschiedene Profile von Lehrkräften ermitteln und diese anhand ihrer Personenmerkmale charakterisieren. Die Ergebnisse liefern Ausgangspunkte für weitergehende empirische Untersuchungen, mit der Absicht, die Zufriedenheit von Lehrkräften und die Qualität des Schulunterrichts in Informatik festzustellen und ggf. zu verbessern. 1 Informatikunterricht an bayerischen Gymnasien An den 405 bayerischen Gymnasien begann im Schuljahr 2004/2005 für die Schülerinnen und Schüler der 6. Jahrgangsstufe mit der Umstellung auf die 8-jährige Form des Gymnasiums (kurz G8) auch das neu konzipierte Pflichtfach Informatik [Hub07] [Hub05]. Dieser Jahrgang beendete im Juli 2009 die Mittelstufe mit dem Abschluss der 10. Klasse. In den Jahrgangsstufen 6 und 7 wurde das neue Pflichtfach mit Physik und Biologie zum Fächerverbund Natur und Technik“ (NuT) zusammengefasst. Die Schülerinnen und ” Schüler beschäftigen sich hier vor allem mit der objektorientierten Sicht auf grundlegende Datenstrukturen von Standardsoftwaresystemen. Nach der Einführung der Begriffe Objekt, Klasse, Attribut, Methode anhand von Grafiken lernen sie an Texten, Ordnern, Präsentationen und Hypertexten typische Beziehungen zwischen Objekten wie Aggregation oder Referenzierung kennen. Den Abschluss des Unterstufenkurses bildet eine Einführung in die Algorithmik unter Verwendung von virtuellen oder realen Robotersystemen (z.B. Karol). Im Schuljahr 2007/08 besuchten 47.434 in der 6. Jahrgangsstufe bzw. 44.752 Schülerinnen und Schüler in der 7. Jgst. diesen neuen Informatikunterricht [ISB09]. Der weiterführende Informatikunterricht startete im Schuljahr 2007/2008 in Form eines neuen Vorrückungsfaches Informatik in den Jahrgangsstufen 9 und 10 des naturwissenschaftlich-technologischen Zweigs, der im Schuljahr 2007/08 von 49,3% aller Schülerinnen und Schüler gewählt wurde. Inhaltlich beschäftigen sich die Schülerinnen und Schüler hier - 45 - mit der Modellierung von Systemen aus ihrer Erfahrungswelt. Die Modelle werden unter Verwendung geeigneter Softwaresysteme und Programmierwerkzeuge implementiert und simuliert. In der 9. Jgst. erstellen die Schülerinnen und Schüler zunächst Datenflussdiagramme und simulieren diese mit einem Tabellenkalkulationssystem; darauf folgt ERDatenmodellierung und Simulation der Modelle auf einem relationalen Datenbanksystem. In der 10. Jgst. entwerfen und implementieren sie Algorithmen sowie Zustandsmodelle und objektorientierte Modelle, die sie in einer objektorientierten Programmiersprache implementieren. Im Schuljahr 2007/08 nahmen in der 9. Jgst. 17327 bzw. in der 10. Jahrgangsstufe 16611 Schülerinnen und Schüler an diesem Pflichtfach teil [ISB09]. Mit der Einführung des G8 wurde auch die gymnasiale Oberstufe völlig neu konzipiert. Anstatt der bisherigen Unterscheidung zwischen Grund- und Leistungskursen verpflichtet man jetzt alle Schülerinnen und Schüler zur durchgehenden Belegung der Pflichtfächer Deutsch, Mathematik, Geschichte/Sozialkunde und Sport. Im Wahlpflichtbereich wird gefordert: eine fortgeführte Fremdsprache, eine (erste) Naturwissenschaft (Biologie, Chemie oder Physik), eine zweite Naturwissenschaft oder fortgeführte Informatik oder eine zweite Fremdsprache, Geographie oder Wirtschaft/Recht sowie Kunst oder Musik. Informatik kann in der 12. Jgst. fortgeführt und dann auch als schriftliches oder als mündliches Abiturfach gewählt werden. Auf der Grundlage dieser Erhebung erwarten wir im Schuljahr 2009/10 ca. 2600 Schülerinnen und Schüler in den Informatikkursen der 11. Jgst. Der Informatikkurs der Oberstufe bietet in der Jgst. 11 die Inhalte rekursive Datenstrukturen (Listen, Bäume) mit zugehörigen Algorithmen, Planung und Organisation kooperativer Arbeitsabläufe sowie Konzepte der praktischen Softwareentwicklung. In der Jgst. 12 arbeiten die Schülerinnen und Schüler mit formalen Sprachen (Alphabete, Syntax und Semantik, Grammatiken, endliche Automaten), lernen die Funktionsweise eines Rechners (Aufbau eines Computersystems, Registermaschine, Anweisungen auf Maschinenebene), prinzipielle bzw. effizienzbedingte Grenzen der Berechenbarkeit sowie Prinzipien der Kommunikation bzw. Synchronisation von Prozessen kennen. 2 Die Zielsetzung der Umfrage Ende Juli 2009 hatten die ersten Schülerinnen und Schülern die Unter- und Mittelstufe des neuen Pflichtfaches Informatik vollständig durchlaufen. Dieser Anlass legte es nahe, mit der Untersuchung des Erfolgs und der Qualität dieses neuen Faches zu beginnen. Die Autoren waren neben der Entwicklung des neuen Faches auch seit dem Jahr 2001 maßgeblich an der einschlägigen Fortbildung der Lehrkräfte dazu beteiligt. Dieses Angebot nahmen z.B. an der TUM in den letzten beiden Jahren 2009 und 2010 ca. 300 Lehrerinnen und Lehrer wahr. In vielen Gesprächen mit aktiven Lehrkräften während dieser Fortbildungsveranstaltungen wurden gegenüber den Autoren zum Teil völlig gegensätzliche Meinungen zur neuen Schulinformatik geäußert. Vor allem um diese punktuellen Meinungsbilder auf einer breiten Basis zu überprüfen, haben wir uns daher im Dezember 2009 an alle Lehrerinnen und Lehrer gewandt, die in Bayern Informatik unterrichten. Auf der Basis der Anzahl der bayerischen Gymnasien (ca. 400) und der groben Annahme (begründet durch Erfahrungen aus den Lehrerfortbildungen), dass je Schule durchschnittlich ca. 4 Lehrkräfte - 46 - im Informatikunterricht eingesetzt werden, schätzen wir den Umfang der Zielgruppe auf etwa 1600 Personen. Daneben verfolgten wir noch weitere Ziele mit dieser Umfrage. Erstens wollten wir rein deskriptiv Informationen zu folgenden Aspekten sammeln: • Zusammensetzung der Zielgruppe nach Alter, Geschlecht, Diensterfahrung, Dienstverhältnis, • Art und Alter der fachlichen Hochschulausbildung in Informatik (grundständiges Lehramtsstudium, Nachqualifikation, Diplom/Master als Quereinsteiger, kein Abschluss), • Zufriedenheit der Lehrkräfte mit dem Lehrplan und ihrem eigenen Unterricht, • Art und Angemessenheit der im Unterricht eingesetzten Softwarewerkzeuge, • Fortbildungsbesuch bzw. -bedarf zu den einzelnen Lehrplankapiteln, • Bereitschaft der fachfremden Lehrkräfte zum Nachholen des Staatsexamens in Informatik über spezielle Nachqualifikationsmaßnahmen wie FLIEG [Spo09], • Reaktionen der Schülerinnen und Schüler sowie der Eltern auf das neue Fach aus Sicht der Lehrkräfte. Zweitens wollten wir eine umfassende explorative Analyse der Daten durchführen, um ggf. Korrelationen zwischen Personenmerkmalen der Lehrkräfte wie Alter, Berufserfahrung, Geschlecht, Art des Hochschulabschlusses etc. mit ihrer Zufriedenheit mit dem neuen Fach bzw. mit der Rückmeldung ihrer Schülerinnen und Schüler aufzuspüren. Unser besonderes Interesse galt dabei eventuellen Korrelationen zwischen der Art der fachlichen Hochschulausbildung in Informatik mit nahezu allen anderen Items. Dieses Interesse hat den folgenden Hintergrund: Prinzipiell dürfen sowohl innerhalb des Fächerverbunds Natur und Technik der Unterstufe als auch im regulären Pflichtfach der Mittelstufe nur Lehrkräfte mit entsprechender Fakultas das Fach Informatik unterrichten. Aus den Studierendenzahlen der bayerischen Universitäten können wir ableiten, dass derzeit ca. 450 Lehrkräfte über einen Universitätsabschluss in Informatik verfügen. Offensichtlich besteht also noch ein erheblicher Mangel von rund 1000 Lehrerinnen und Lehrern mit diesem Abschluß, so dass hier oft auch fachfremde Lehrkräfte zum Einsatz kommen. Andererseits zeigte u.a. die COACTIV-Studie für das Fach Mathematik [BKB+ 10], [BK06], dass dem reinen Fachwissen der Lehrkräfte in vielerlei Hinsicht große Bedeutung zukommt. Es steht also zu vermuten, dass dies in ähnlicher Weise auch in der Informatik der Fall sein wird. Natürich trifft die Kritik von [BK06] an der (distalen) Indikation von Fachwissen über rein formale Qualifikationen auch unsere o.g. Diagnose über die Art des Hochschulabschlusses. Daher wollten wir drittens die Struktur des Fachwissens der Lehrkräfte zu den einzelnen Lehrplanpunkten über ihre Selbsteinschätzung näher untersuchen. Hier hofften wir, durch eine latente Klassenanalyse (vgl. z.B. [Ros04]) eine Klassifizierung nach dem Profil des (selbsteingeschätzten) Fachwissens aufzuspüren und eventuell die Zugehörigkeit zu - 47 - diesen Klassen mit der Art und dem Alter des Hochschulabschlussess und evtl. auch weiteren Personenmerkmalen korrelieren zu können. Angesichts der typischen und oft sehr kontroversen Sichten auf die informatische Bildung (wie z.B. Programmieren vs. Anwendungen vs. Modellieren, siehe z.B. [Mic08]) waren wir zuversichtlich, auch hier typische Muster zu finden. 3 Durchführung der Umfrage Die Umfrage wurde als Online-Fragebogen konzipiert, wobei wir das quelloffene Limesurvey verwendet haben. Die Lehrkräfte wurden per e-Mail (mit freundlicher Unterstützung des Arbeitskreises Lehrerbildung Informatik in Bayern auch über deren Verteiler) zur Teilnahme eingeladen und gebeten, diese Einladung auch an andere Kolleginnen und Kollegen weiterzugeben, die im Informatikunterricht eingesetzt werden oder wurden. Zielgruppe waren somit alle Lehrkräfte, die im Rahmen der Pflichtfächer Natur und Technik bzw. Informatik Unterricht erteilen oder erteilt haben. Der Fragebogen war im Dezember 2009 für vier Wochen verfügbar. In dieser Zeit nahmen 448 Personen an der Befragung teil. Zunächst stellt sich daher die Frage nach der Repräsentativität der Umfrage. Die Auswahl der Stichprobe erfolgte nicht zufällig, daher kann nicht automatisch von einem repräsentativen Ergebnis ausgegangen werden. Tatsächlich muss davon ausgegangen werden, dass bei der Art der Umfragedurchführung (Selbstauswahl), tendenziell eher Personen mit einer ausgeprägten positiven oder negativen Meinung zum Informatikunterricht zur Teilnahme motiviert sind. Wir gehen aus den folgenden Gründen allerdings trotzdem davon aus, dass die Ergebnisse der Umfrage ein repräsentatives Bild der Population zeichnen: Im Folgenden präsentieren wir ausgewählte Ergebnisse der bisherigen Auswertung. Es sei noch angemerkt, dass das Hauptaugenmerk der Studie auf den Jahrgangsstufen 6 bis 10 lag, da zum Zeitpunkt der Durchführung lediglich diese Jahrgangsstufen bereits ein- oder mehrmals unterrichtet wurden. 4 4.1 Ausgewählte Ergebnisse Mitarbeit, Einstellung und Leistung der Schülerinnen und Schüler Die teilnehmenden Lehrkräfte wurden gefragt, wie der Notenspiegel von Stegreifaugaben in Informatik ausfällt. Diese stellen in Informatik die einzigen schriftlichen Leistungserhebungen dar. Insbesondere ging es darum, ob der Notenspiegel eher die typische, unimodale Glockenform oder eine bimodale Kamelhöckerform“ hat. Vortests mit ausgewählten ” Lehrkräften ließen erwarten, dass in Informatik hier eine Besonderheit vorherrscht. Abbildung 1 zeigt das Ergebnis. Tatsächlich scheint in der 10. Jgst. häufig die bimodale Form aufzutreten. Auch wenn wir bisher dafür keine gesicherte Erklärung anbieten können, wäre - 48 - Form der Notenspiegel 100 0 50 Anzahl 100 0 50 Anzahl 150 7. Jgst. 150 6. Jgst. eher unimodal eher bimodal kann ich nicht beurteilen eher unimodal 100 0 50 Anzahl 100 0 50 Anzahl 150 10. Jgst. 150 9. Jgst. eher bimodal kann ich nicht beurteilen eher unimodal eher bimodal kann ich nicht beurteilen eher unimodal eher bimodal kann ich nicht beurteilen Abbildung 1: Form der Notenspiegel von Stegreifaufgaben in Informatik eine Möglichkeit, dass die motivationalen Voraussetzungen der Schülerinnen und Schüler hierauf Einfluss haben. Eine weitere mögliche Ursache könnte in der Thematik der 10. Jgst. (Objektorientierte Modellierung und Programmierung) liegen, die möglicherweise inhärent eine sehr hohe Trennschärfe“ bei den Lernzielkontrollen verursacht, oder auch ” in der fachlichen Unsicherheit relativ vieler Lehrkräfte zu dieser Thematik (siehe unten). Die Lehrkräfte wurden darüberhinaus danach gefragt, ob sie hinsichtlich der Noten einen Unterschied zwischen den Geschlechtern erkennen können. Die Ergebnisse sind in Bild 2 zu sehen. Offensichtlich besteht für den Anfangsunterricht kein nennenswerter Unterschied zwischen den Geschlechtern. Lediglich bei den Themen der 10. Jahrgangsstufe gibt es Hinweise darauf, dass die Jungen besser in Informatik abschneiden. Die Auswertung der Hypothese Jungen und Mädchen sind gleich gut im Informatikunterricht“ liefert ” das Folgende Ergebnis: Nimmt man eine (fiktive) diskretisierte Verteilung, die normalverteilt um den Wert gleich gut“ schwankt an, muss die Hypothese für die 6. und 10. Jahr” gangsstufe auf dem 1 % Niveau abgelehnt werden (χ2 = 15.24, bzw. χ2 = 39.79). Für die beiden anderen Jahrgangsstufen kann die Hypothese dagegen angenommen werden. Darüberhinaus unterscheiden sich die Verteilungen der Antworten aller Jahrgangsstufen signifkant auf dem 1 % Niveau von den Antworten zu allen anderen Jahrgangsstufen. Es scheint also jahrgangsspezifische Unterschiede hinsichtlich des Einflusses des Geschlechts auf die Leistung in Informatik zu geben. Diese Ergebnisse zu untermauern und nach Ursachen zu suchen ist Aufgabe der zukünftigen Forschung. - 49 - Unterschied Jungen/Mädchen 150 100 Anzahl 0 50 100 0 50 Anzahl 150 200 7. Jgst. 200 6. Jgst. Mädchen besser Jungen besser gleich gut Mädchen besser 200 150 0 50 100 Anzahl 150 100 0 50 Anzahl gleich gut 10. Jgst. 200 9. Jgst. Jungen besser Mädchen besser Jungen besser gleich gut Mädchen besser Jungen besser gleich gut Abbildung 2: Wenn Sie die Noten der Schülerinnen und Schüler in Informatik miteinander verglei” chen, sind dann die Mädchen oder die Jungen besser?“, getrennt gefragt für jede Jahrgangsstufe. Die Ergebnisse hinsichtlich der Beteiligung der Schülerinnen und Schüler am Unterricht zeichnen ein ziemlich klares Bild. Der Verlauf geht von einer sehr positiven Bewertung in den ersten beiden Jahrgangsstufen zu einer eher neutralen Bewertung in den Jahrgangsstufen 9 und 10. Abbildung 3 zeigt die Ergebnisse hinsichtlich der Mitarbeit der Schülerinnen und Schüler im Informatikunterricht. Die Mediane liegen für die Jgst. 6, 7 und 9 jeweils bei überwiegend zufrieden, für die 10. Jgst. bei einigermaßen zufrieden. Die Lehrkräfte wurden auch gebeten, eine Einschätzung darüber abzugeben, wie die Schülerinnen und Schüler zum neuen Unterrichtsfach Informatik stehen. Hier wurde, analog zu den anderen Fragen, für jede Jahrgangsstufe getrennt gefragt. Das Ergebnis stellt natürlich lediglich einen Hinweis auf die tatsächliche Einstellung der Schülerinnen und Schüler dar, nichtsdestotrotz ist es es interessant anzumerken, dass der Verlauf der Antworten hier denselben Verlauf wie die Frage nach der Mitarbeit zeigt. Der Anfangsunterricht macht demnach den Schülern allgemein viel Spaß“ während die 10. Klasse den Schülern im ” Mittel keinen Spaß“ mehr zu machen scheint. Hieraus ergibt sich ein Ansatz für weitere ” Forschungsarbeit, der diese Annahmen durch geeignete Tests mit Schülern validiert. Generell wäre es interessant, die Antworten zu den motivationalen Voraussetzungen mit den Ergebnissen für andere Fächer in derselben Jgst. zu vergleichen. - 50 - Zufriedenheit mit Mitarbeit 100 0 3 4 5 6 1 2 3 4 Zufriedenheit Zufriedenheit 9. Jgst. 10. Jgst. 5 6 5 6 100 50 0 0 50 Anzahl 100 150 2 150 1 Anzahl 50 Anzahl 100 50 0 Anzahl 150 7. Jgst. 150 6. Jgst. 1 2 3 4 5 6 1 Zufriedenheit 2 3 4 Zufriedenheit Abbildung 3: Wie zufrieden sind Sie mit der Mitarbeit der Schülerinnen und Schüler im Informa” tikunterricht?“, getrennt gefragt für jede Jahrgangsstufe. Die Antwortskala ist bei allen Fragen: 1 = sehr zufrieden, 2 = überwiegend zufrieden, 3 = einigermaßen zufrieden, 4 = eher unzufrieden, 5 = einigermaßen unzufrieden, 6 = sehr unzufrieden 4.2 Fachliche Voraussetzungen bei den Lehrkräften Aufgrund des relativ geringen Alters des neuen Faches herrscht in Bayern noch immer ein Mangel an qualifizierten Informatiklehrkräften. Grundsätzlich unterrichten derzeit Lehrerinnen und -lehrer, die entweder • die Fakultas in Informatik durch ein grundständiges Lehramtsstudium oder • über den Quereinstieg mit einem anderen Informatik-Abschluss (z.B. als Dipl. Inf.) oder • über spezielle Nachqualifizierungsmaßnahmen (wie z.B. SIGNAL oder FLIEG [Spo09]) erworben haben, oder • Informatik fachfremd unterrichten, oder • als zeitweilige Aushilfskräfte eingestellt sind (z.B. Informatikstudierende). Diese große Bandbreite in der fachlichen und didaktischen Vorbildung bietet ein sehr interessantes Umfeld für Forschungsfragen. Da die Auswertungen in diesem Bereich noch - 51 - 1 2 4 2 1 3 4 2 1 3 4 2 4 2 4 2 4 2 4 2 4 2 1 3 1 3 1 1 3 1 3 3 1 4 4 4 4 2 1 4 4 2 1 4 2 1 2 2 2 1 3 1 2 1 2 2 1 1 1 1 1 3 4 4 2 2 3 3 4 4 4 3 3 3 5 3 3 3 3 3 3 Inf 12.4 Inf 12.3 Inf 12.2 Inf 12.1 Inf 11.2 Inf 11.1 Inf 10.3 Inf 10.2 Inf 10.1 Inf 9.2 Inf 9.1 NT 7.2.3 NT 7.2.2 NT 7.2.1 NT 6.2.5 NT 6.2.4 NT 6.2.3 NT 6.2.2 NT 6.2.1 6 Abbildung 4: Wie sicher fühlen Sie sich rein fachlich in den folgenden Lehrplanpunkten?“, Ant” wortskala für alle Punkte 1 = sehr gut bis 6 ungenügend. Die Zahlen stellen den jeweiligen Mittelwert der Antworten der entsprechenden Klasse dar. Die gestrichelte Linie stellt den Mittelwert über alle Anworten dar nicht abgeschlossen sind, können wir zunächst nur einige vorläufige Resultate präsentieren. Einige dieser Aspekte werden in [MHB10] behandelt, allerdings unter anderen, eigenständigen Gesichtspunkten. Abbildung 4 zeigt das Ergebnis einer latenten Klassenanalyse. Gefragt war nach der Selbsteinschätzung hinsichtlich der fachlichen Sicherheit in den einzelnen Lehrplanpunkten. Die Überschriften der jeweiligen Lehrplanpunkte lauten: NT 6.2.1 Information und ihre Darstellung NT 6.2.2 Informationsdarstellung mit Graphikdokumenten - Graphiksoftware NT 6.2.3 Informationsdarstellung mit Textdokumenten - Textverarbeitungssoftware NT 6.2.4 Informationsdarstellung mit einfachen Multimediadokumenten - Präsentationssoftware NT 6.2.5 Hierarchische Informationsstrukturen Dateisystem NT 7.2.1 Vernetzte Informationsstrukturen - Internet NT 7.2.2 Austausch von Information E-Mail NT 7.2.3 Beschreibung von Abläufen durch Algorithmen Inf 9.1 Funktionen und Datenflüsse; Tabellenkalkulationssysteme Inf 9.2 Datenmodellierung und Datenbanksysteme Inf 10.1 Objekte und Abläufe Inf 10.2 Generalisierung und Spezialisierung Inf 10.3 Komplexeres Anwendungsbeispiel Inf 11.1 Rekursive Datenstrukturen Inf 11.2 Softwaretechnik Inf 12.1 Formale Sprachen - 52 - Inf 12.2 Kommunikation und Synchronisation von Prozessen Inf 12.3 Funktionsweise eines Rechners Inf 12.4 Grenzen der Berechenbarkeit Die Klassenanalyse (durchgeführt mit dem Package MClust [FR07] in GNU-R) findet anhand des BIC-Kriteriums ein möglichst gut passendes Gaussian Mixture Modell für die Daten. Dabei werden verschiedene Modellklassen und auch verschiedene Clusteranzahlen berücksichtigt. Hierfür wurden zunächst solche Antworten entfernt, die die entsprechende Frage nicht oder nur teilweise beantwortet haben, es verblieben 216 Antworten für die Analyse. Als Ergebnis erhält man eine Wahrscheinlichkeitsverteilung über die Zugehörigkeit einer Antwort zu einer der gefundenen Klassen. Durch Wahl der jeweils maximalen Wahrscheinlichkeit erzeugt man schließlich eine feste Zuordnung einer Antwort zu einer der Klassen. Das Ergebnis stellt, aufgrund des verwendeten Verfahrens, nur eine lokal optimale Lösung dar. Nichtsdestotrotz lassen sich daran interessante Beobachtungen durchführen. Einzig anhand der Klassenanalyse lässt sich bereits folgende Charakterisierung treffen: Klasse 1 Dieses Klasse zeigt einen dem Durchschnitt entsprechenden Verlauf, allerdings schätzen sich die Personen durchwegs unterdurchschnittlich ein. Die fachliche Sicherheit ist bis zur 10. Jgst. gut, danach befriedigend oder ausreichend. Von den 216 Lehrkräften wurden 55 dieser Klasse 1 zugeordnet. Klasse 2 Mit 95 von 216 die größte Klasse mit einem tendenziellen Verlauf ähnlich dem der Klasse 1, allerdings stets darüber: Sehr sicher bei den Themen der Jgst. 6 und 7, danach ein stetiger Abfall, allerdings insgesamt immer noch mindestens befriedigende fachliche Sicherheit. Klasse 3 Die mit 28 Personen kleinste aber auch auffälligste Klasse: Sicherheit bei den Themen des Anfangsunterrichts in 6. und 7. Jgst., danach höchstens noch ausreichende fachliche Sicherheit. Klasse 4 Fühlt sich fachlich in allen Themen (sehr) sicher. Lediglich bei den Jgst. 11 und 12 (die sie zu diesem Zeitpunkt noch nie unterrichtet haben können) ist der Mittelwert schlechter als 1,5. Dieses Klasse umfasst 38 von 216 Personen. Als Nächstes wurden nun solche Fragen identifiziert, bei denen sich die Personen zweier Klassen signifikant unterscheiden. Dazu wurde jede Frage, außer die in der Klassenanalyse verwendete, auf die Hypothese hin untersucht, dass die Stichproben der Antworten von Personen aus Klasse i bzw. aus Klasse j nicht derselben Verteilung entspringen. Je nach der Art von Frage und Antwortskala wurden entsprechend geeignete Tests dafür ausgewählt und angewandt. Auf diese Weise werden versteckte Zusammenhänge zwischen den Personen einer Klasse aufgedeckt. Im vorliegenden Fall ergeben sich unter anderem die folgenden Resultate (die vollständigen Fragen mit Antwortskalen können aus Platzgründen hier leider nicht wiedergegeben werden. Als Signifikanzniveau wurde für alle Tests α = 0, 99 verwendet): - 53 - • Klasse 4 unterscheidet sich von allen anderen Klassen hinsichtlich des Antwortverhaltens zur Frage Wie zufrieden sind Sie mit dem neuen Unterrichtsfach Informatik ” insgesamt?“ bezogen auf die Jahrgangsstufen 6, 7, 9, 10 (nur diese wurden gefragt). Die Antwortskala war wie in Abbildung 3. Der Median der Antworten aus Klasse 4 war für die Jgst. 6, 7 und 10 jeweils sehr zufrieden“, für die 9. Jgst. überwiegend ” ” zufrieden“ und damit stets um mindestens eine Stufe besser als bei den Personen aus den anderen Klassen. Am unzufriedensten waren die Personen aus Klasse 3, bei denen die Mediane für die Jgst. 6, 7 und 10 einigermaßen zufrieden“ und für die 9. ” Jgst. eher unzufrieden“ sind. ” • Klasse 3 unterscheidet sich von allen anderen Klassen bezüglich der Antwort auf die (dichotome) Frage Ich habe als Teilnehmer seit 2002 an Fortbildungsveranstaltun” gen zum Schulfach Informatik teilgenommen“, bezogen auf die 10. Jahrgangsstufe. Die Personen aus Klasse 3 haben signifkant öfter nicht an einer Fortbildung zu den Themen der 10. Jgst. teilgenommen. Darüberhinaus unterscheiden sich die Personen aus Klasse 3 ebenfalls von allen anderen Klassen hinsichtlich der Frage nach dem 1. Staatsexamen in Informatik. Die Lehrkräfte in Klasse 3 haben signifikant öfter kein 1. Staatsexamen in Informatik. Interessanterweise liefert die Analyse für die allgemeinere Frage nach einem Hochschulabschluss in Informatik keine signifikaten Unterschiede zu den anderen Klassen. • Klasse 3 unterscheidet sich von allen anderen Klassen bezüglich der in der 10. Jgst. eingesetzten Werkzeuge. Die Personen in Klasse 3 setzen signifikant öfter kein Java und kein BlueJ ein (das Antwortformat war eine Merfachauswahl aus einer Liste von Werkzeugen und Sprachen). • Klasse 1 und 2 unterscheiden sich in praktisch keiner interessanten Eigenschaft. Die unterschiedliche Eingruppierung hängt also möglicherweise lediglich daran, wie überzeugt die jeweilige Person vom eigenen Wissen war. Mithilfe dieser Ergebnisse lassen sich die Klassen hinsichtlich ihrer (typischen) Personenmerkmale charakterisieren. So sind z.B. die der Klasse 3 zugeordneten Lehrkräfte (im Durchschnitt) Informatikabsolventen, die kein 1. Staatsexamen haben (also Quereinsteiger oder Aushilfslehrer), die sich fachlich mit den Themen der 10. Jgst. nicht sicher fühlen und noch keine Fortbildung dazu besucht haben. Klasse 1 hingegen besteht typischerweise aus Personen die sich sicher mit den Themen des Unterrichts fühlen und auch mit dem Unterrichtsfach allgemein (sehr) zufrieden sind. 5 Zusammenfassung und Ausblick Die Ergebnisse unserer Umfrage eröffnen spannende, fachdidaktische Fragestellungen. Ein sicherer fachlicher Umgang mit den Themen des Informatikunterrichts scheint eine Voraussetzung für eine allgemeine Zufriedenheit mit dem Fach zu sein. Wie kann man diese Sicherheit der Lehrkräfte fördern? In der weiteren Auswertung wird insbesondere auch die Einstellung gegenüber dem Lehrplan in Abhängigkeit vom vorhandenen Vorwissen - 54 - (siehe dazu auch [MHB10]) eine interessante Fragestellung sein, die hoffentlich weitere Einblicke in die unterschiedlichen fachlichen Voraussetzungen von Lehrkräften und die Folgen daraus für den Unterricht bietet. Erste Ergebnisse hinsichtlich dieser Einstellung zeigen, dass sich dort mit einer ähnlichen Auswertung ebenfalls verschiedene Profile von Lehrkräften finden lassen. Es ist allerdings noch offen, inwieweit diese mit den hier vorgestellten korrelieren. Bezüglich der Schüler bietet der Aspekt der bimodalen Verteilung Material für weitere Forschungsvorhaben. Inwieweit ist dieses Eigenschaft von Lehrkraft, Unterricht und Art der Leistungserhebung abhängig, inwieweit ist dies eine spezielle Eigenheit des Faches Informatik? Literatur [BK06] Jürgen Baumert und Mareike Kunter. Stichwort: Professionelle Kompetenz von Lehrkräften. Zeitschrift für Erziehungswissenschaft, 9(4):469–520, 2006. [BKB+ 10] Jurgen Baumert, Mareike Kunter, Werner Blum, Martin Brunner, Thamar Voss, Alexander Jordan, Uta Klusmann, Stefan Krauss, Michael Neubrand und Yi-Miau Tsai. Teachers’ Mathematical Knowledge, Cognitive Activation in the Classroom, and Student Progress – Baumert et al. 47 (1): 133 –180. American Educational Research Journal, 47(1):133–, 2010. [FR07] Chris Fraley und Adrian E. Raftery. MCLUST version 3 for R: Normal mixture modeling and model-based clustering. Bericht 504, Department of Statistics University of Washington, Seattle, WA 98195-4322 USA, 2007. [Hub05] Peter Hubwieser. Von der Funktion zum Objekt - Informatik für die Sekundarstufe 1 (Hauptvortrag INFOS 2005). In Friedrich S. (Hrsg.): Unterrichtskonzepte für die informatische Bildung. INFOS 2005 - 11. GI-Fachtagung Informatik und Schule, 28.30.9.2005 in Dresden, GI-Edition Lecture Notes in Informatics. P-60, Seiten 27–41, 2005. [Hub07] Peter Hubwieser. Informatische Bildung in Bayern. LOG IN Nr. 145, Seiten 6–8, 2007. [ISB09] Staatsinstitut für Schulqualität und Bildungsforschung. Bildungsbericht Bayern, 2009. [MHB10] Andreas Mühling, Peter Hubwieser und Torsten Brinda. Exploring Teachers Attitudes Towards Object Oriented Modelling and Programming in Secondary Schools - eingereicht und akzeptiert. In Proceedings of the 6th International Computing Education Research Workshop (ICER), 9-10 August in Aarhus. ACM-SIGCSE, 2010. [Mic08] Peter Micheuz. Harmonization of Informatics Education - Science Fiction or Prospective Reality? In Roland T. Mittermeir und Maciej M. Syslo, Hrsg., Informatics Education - Supporting Computational Thinking, Third International Conference on Informatics in Secondary Schools - Evolution and Perspectives, ISSEP 2008, Torun, Poland, July 1-4, 2008, Proceedings, Jgg. 5090 of Lecture notes in computer science, Seiten 317–326. Springer, 2008. [Ros04] Jürgen Rost. Lehrbuch Testtheorie - Testkonstruktion. Psychologie Lehrbuch. Huber, Bern, 2., vollst. überarb. und erw. aufl.. Auflage, 2004. [Spo09] Matthias Spohrer. Konzeption und Analyse neuer Maßnahmen in der Fort- und Weiterbildung von Informatiklehrkräften., 2009. - 55 - Lehrerbildung Informatik - Was ist zu tun? Ira Diethelm, Lutz Hellmig, Steffen Friedrich, Norbert Breier, Torsten Brinda sowie Dirk Drews, Andreas Gramm, Alexander Hug, Tino Hempel, Henry Herper, Ludger Humbert, Mirko König, Barbara Linck, Matthias Makowsky, Peter Micheuz, Paul Miotti, Dorothee Müller, Jürgen Poloczek, Detlef Rick, Ralf Romeike, Gabriele Rosner, Sandra Wienck Abstract: Auf der INFOS 2009 fanden sich in einem Workshop mit dem Titel dieses Papiers Interessierte zusammen, die einen Arbeitskreis des Fachbereiches IAD der GI zu Belangen der Lehrerbildung Informatik initiieren möchten. In vier Teilgruppen wurden zunächst Problemfelder beschrieben, die die nachfolgende Arbeit des Arbeitskreises strukturieren sollen. Dieses Papier fasst die Ergebnisse des Workshops zusammen und möchte damit die Diskussion zum Thema Lehrerbildung Informatik sowohl für die Forschung als auch für die Praxis eröffnen. 1 Wo drückt der Schuh? In der Bundesrepublik Deutschland ist die Lehrerbildung Informatik in allen Bundesländern etabliert. Vor dem Hintergrund wachsenden Bedarfs für qualifizierte Informatiklehrkräfte und gleichzeitiger Abnahme der Zahl der im Dienst befindlichen Kolleginnen und Kollegen (wegen altersbedingten Ausscheidens, vgl. z. B. [Die09]) ist eine Erhöhung der Kapazitäten und der Werbung für den Beruf der Informatiklehrkraft für alle Schulformen und Schulstufen angezeigt. Attraktive Studiengänge, die auf wissenschaftlicher Basis und unter sinnvoller Einbindung praktischer Anteile eine optimale Vorbereitung auf den Lehrerberuf bieten, sind ein zentrales Element für die Gewinnung von Studierenden. Strukturelle Fragen der gesamten Lehramtsausbildung wirken sich schon auf die Gewinnung von Studierenden für das Lehramt Informatik aus. Im Zuge der konsekutiven Gestaltung der Lehrerbildung in vielen Bundesländern wurden vormalige Drittfachregelungen obsolet. Dies schadet der Informatiklehrerbildung, da viele Kolleginnen und Kollegen Informatik als drittes Unterrichtsfach erworben haben. Die Ursachen, warum im Lehramt Informatik Studierende ihr Studium vorzeitig ohne Abschluss beenden, sind sicher vielfältiger Natur. Unabhängig von einem gewissen Anteil von Studierenden, die den Anforderungen des Studiums generell nicht gewachsen sind, ist zu hinterfragen, inwiefern unklare Vorstellungen zur Informatik zu einer falschen Studienwahl geführt haben – bzw. auch eine Entscheidung für ein Informatiklehrerstudium verhindert haben. Bei den Angeboten der Hochschulen zeigen sich deutliche qualitative und quantitative Unterschiede. Gängige Praxis – auch bedingt durch die geringen Studieren- 57 - denzahlen – ist, dass Lehramtsstudierende Vorlesungen hören, die nicht für sie konzipiert wurden. Wenn die Studierenden einen Masterabschluss bzw. das erste Staatsexamen erlangen, ist es sehr vom Bundesland abhängig, wie schnell sie in den Vorbereitungsdienst eintreten und wie dieser organisiert ist. In der Vergangenheit ergaben sich in einigen Bundesländern durch Zugangsbeschränkungen für den Vorbereitungsdienst oder schlecht koordinierte Bewerbungs- und Einstellungstermine zum Teil erhebliche Wartezeiten, obwohl Lehrer in Informatik und verwandten Fächern gesucht werden. Da in vielen Bundesländern Quereinsteiger zum Vorbereitungsdienst zugelassen werden, ergeben sich für diese Phase der Ausbildung weitere Probleme. Quereinsteiger bringen meist nur für einen Teilbereich des professionellen Wissens und Könnens von Lehrern entsprechende Qualifikationen mit, für andere Bereiche – meist im fach- und allgemeindidaktischen Bereich – fehlen hier die Grundlagen einer universitären Lehrerausbildung. Im Bereich des berufsbildenden Lehramts ist dieses Problem noch ausgeprägter. Die Wirksamkeit bundesweiter und regionaler Bestrebungen, die Kommunikation zwischen den Ausbildungsphasen zu verbessern und zu etablieren1 , wird noch zu oft von lokalen Gegebenheiten und administrativen Hürden torpediert und muss darum insgesamt als verbesserungswürdig eingestuft werden. Etliche Bundesländer bieten Weiterbildungsprogramme an, die durch virtuelle oder regelmäßige Präsenzveranstaltungen ermöglichen, eine Lehrbefähigung für Informatik parallel zum täglichen Schuldienst zu erwerben. Je nach Bundesland werden dafür Entlastungsstunden bereitgestellt oder nicht. Und je nach Bundesland und Lehramt unterscheiden sich auch sowohl die Inhalte als auch die Leistungen, die hierfür erbracht werden müssen: So verlangen einige Länder, den vollen Umfang eines Schulfaches zu studieren (ca. 70 Semesterwochenstunden), andere vergeben für ca. 20 SWS eine Qualifikation als sogenanntes Beifach. Wieder andere Stellen vergeben losgelöst von staatlichen Prüfungsanforderungen Zertifikate für die Bedienung bestimmter Softwarepakete, die von ihren Herstellern angeboten werden. Zudem werden vielerorts die Mittel für Fortbildungen gestrichen. Dies zeigt, dass auf politischer Ebene die Notwendigkeit einer fachlich und didaktisch fundierten Ausbildung von Informatiklehrern oftmals nicht gesehen wird. Nicht überall ist es bisher gelungen, die Gleichwertigkeit der Informatik zu anderen Fächern – auch im Bereich der Anerkennung von Fort- und Weiterbildungsaktivitäten – herzustellen. Die KMK [KMK08] hat im Jahre 2008 inhaltliche Richtlinien zur Lehrerbildung im Fach Informatik herausgegeben. Da diese aber in einem sehr kurzen Zeitraum von einer kleinen Autorengruppe verfasst und einem unzureichenden Diskussionsprozess unterzogen wurden, besteht Handlungsbedarf zur Formulierung allgemein anerkannter Grundsätze zur Lehrerausbildung Informatik, um deren Qualität erhöhen zu können. Diese Zusammenfassung der Beobachtungen macht deutlich, dass die Lehrerbildung in Informatik viele Probleme begleiten. Die Breite der Probleme zeigt auch das Tafelbild in Abbildung 1, auf dem wir im Workshop versuchten, die Problemlandschaft zu skizzieren. Darin wurden vier Hauptproblemfelder identifiziert, die in den folgenden Abschnitten näher ausgeführt werden. Diese gliedern sich in die 1 z.B. anlässlich der regelmäßigen Bundestreffen der Informatikfachleitungen - 58 - Abbildung 1: Tafelbild der Problemlage • Universitäre Ausbildung von Informatiklehrern • Praxisphase der Lehrerausbildung • Weiterbildung • Informatik für alle Lehrer 2 Universitäre Ausbildung von Informatiklehrern Für die universitäre Ausbildung von Informatiklehrern wurden 3 Problemfelder identifiziert. Dies sind zum ersten die Ausbildung im Fach Informatik, zum zweiten die Inhalte und die Form der (theoretischen) fachdidaktischen Ausbildung und zum dritten die Gestaltung praktischer fachdidaktischer Ausbildungsanteile im universitären Rahmen. - 59 - 2.1 Fachliche Ausbildung Informatische Bildung in Schulen als Beitrag zur Allgemeinbildung unterscheidet sich strukturell von den Gegebenheiten der Fachwissenschaft Informatik. Das klassische Informatikstudium ist – nach einer grundlegenden Ausbildung mit oft hohen mathematischen Anteilen – auf die Vermittlung von Spezialwissen ausgerichtet. Den Erfordernissen des Lehrerberufs, sowohl eine große inhaltliche Breite abzudecken und für diese Inhalte verschiedene Zugänge zu finden, kann so nicht gerecht werden. Aus verschiedenen Beweggründen heraus wurden Zusatzkurse für Lehramtsstudierende angeregt. Nachhilfe“ oder auch eine didaktische Begleitung“ von regulären Lehrveran” ” staltung führen jedoch entweder zu einer zeitlichen Mehrbelastung von Lehramtsstudierenden oder zu einer Streichung anderer Inhalte, die der angestrebten Breite der fachlichen Ausbildung widerspricht. Als ideal werden separate, speziell für Lehramtsstudierende konzipierte Lehrveranstaltungen, in jedem Fall aber eine deutliche Trennung der Studiengänge angesehen. Dies wird sich in den meisten Fällen aus organisatorischen und kapazitiven Gründen schwer realisieren lassen. Es sind Konzepte gefragt, wie dieses Dilemma überwunden werden kann. Bei der Konzeption der fachlichen Ausbildung von Informatiklehrerstudierende sollte gesichert sein, dass auch die Bereiche der Grundsätze und Standards [GI08] für den Informatikunterricht durch das Studium vollständig abgedeckt sind. 2.2 Fachdidaktische Ausbildung Bislang existiert kein umfassender Überblick, welche Inhalte und Methoden die DidaktikAusbildung an den verschiedenen Universitäten bestimmen. Die Schwerpunkte der fachdidaktischen Ausbildung beinhalten je nach Ausbildungsort Aspekte der allgemeinen Didaktik, Inhalte der Fachdidaktik des Informatikunterrichts, gegebenenfalls einhergehend mit einer fachlichen Vertiefung ausgewählter informatischer Inhalte und/oder bundeslandund sogar schulbezogene Themen. Ungeklärt ist weiterhin die zeitliche Einordnung des Beginns der fachdidaktischen Ausbildung. Für einen frühen Beginn sprechen vor allem motivationale Faktoren, die für die Studierenden einen Bezug ihres Studiums zu ihrem späteren Beruf herstellen. Kontraproduktiv sind die zumeist unzureichenden fachlichen Grundlagen in früheren Semestern, die das inhaltliche Spektrum der fachdidaktischen Ausbildung einschränken. Im Mittel beginnt die fachdidaktische Ausbildung derzeit etwa im 5. Semester. 2.3 Praxisanteile in der ersten Phase der Lehrerausbildung Praktische Anteile im Rahmen der universitären Lehrerausbildung gehören noch nicht überall zum Standard. Und wenn praxisbezogene Elemente Bestandteil der ersten Phase - 60 - sind, so verbirgt sich dahinter eine große Breite sowohl etablierter als auch experimenteller Ausbildungsformen. Gebräuchliche methodische Großformen in der praxisbezogenen, fachdidaktischen Lehrerausbildung sind beispielsweise schulpraktische Übungen (SPÜ), integrierte, meist mehrwöchige Schulpraktika oder ein Praxissemester. Die Tätigkeiten der Studierenden während der praktischen Phasen umfassen Unterrichtsbeobachtungen, die Begleitung von unterrichtenden Lehrern als Zweitlehrer und die eigenverantwortliche Erteilung von Unterricht. Idealerweise sollte in allen genannten Formen eine fachdidaktische Begleitung durch die Universität gewährleistet sein, die die Vorbereitung, Durchführung und Auswertung des Unterrichts betrifft. Dieses Kriterium wird für alle Großformen jedoch in sehr unterschiedlichem Maße und oft unzureichend an den verschiedenen Ausbildungsstandorten erfüllt. Auch wenn ein hoher Grad der selbstständigen Arbeit der Studierenden anzustreben ist, sollte dies die Universität nicht von der Verantwortung für die Betreuung der Studierenden entbinden. Inwieweit die selbstständige Arbeit von Studierenden dazu führen darf, dass sie sogar allein ohne Anwesenheit zumindest eines Fachlehrers unterrichten, ist aus didaktischen und juristischen Gründen zu hinterfragen. Die Beantwortung dieser Frage wird mit der Forderung nach einer Erhöhung der Praxisanteile und einer stärkeren Verzahnung der ersten und zweiten Ausbildungsphase nicht trivial sein. Um zu einer dauerhaften Verbesserung der praktischen Ausbildungsanteile der ersten Phase zu kommen, ist zunächst eine gemeinsame Reflexion und Kommunikation bisher gewonnener Erfahrungen nötig. 3 Praxisphase der Lehrerausbildung Die praktische Phase der Ausbildung – synonym auch zweite Phase/Vorbereitungsdienst – umfasste in Deutschland bislang meist einen Zeitraum von 2 Jahren und lag in der Verantwortung der Landesinstitute. Die zu erwartenden strukturellen Änderungen in der zweiten Phase beeinflussen maßgeblich die Diskussion zu damit verbundenen Themen wie dem Einsatz der Referendare oder zu curricularen Inhalten. 3.1 Strukturelle Änderungen Seit jüngstem wird in mehreren Bundesländern von politischer Seite eine Verkürzung der zweiten Phase der Lehrerausbildung auf einen Zeitraum von ein bis eineinhalb Jahren und die Verlagerung von praktischen Inhalten in die erste Phase angestrebt. Kaum beantwortet sind die Fragen nach den dafür benötigten Ressourcen und Rahmenbedingungen, d.h. nach dem wer“, wann“, was“, wie“ und wie oft“. ” ” ” ” ” Eine Verkürzung der zweiten Phase kann ohne einen Qualitätsverlust nur dann realisiert werden, wenn die Schnittstellen zur ersten Phase genau – möglicherweise durch fachdidaktische Standards – beschrieben werden. Für die zweite Phase werden beispielsweise - 61 - Plan- und Planungssicherheit der Studierenden für die Tätigkeit im Vorbereitungsdienst vorausgesetzt. Die Formen der Kompetenzvermittlung stehen mit den strukturellen Veränderungen der zweiten Phase ebenfalls zur Disposition. Kann etwa durch eine Modularisierung der Ausbildung – analog zur ersten Phase – deren Qualität verbessert oder diese zumindest effizienter gestaltet werden? Kollidiert das modulare System mit der Staatsexamensprüfung? Ist die Modularisierung und die permanente Bewertung sinnvoll, gerade unter dem Aspekt einer klaren Trennung von Lern- und Leistungssituationen? 3.2 Einsatz der Referendare Ein weiteres Problem ist die unklare Situation des Einsatzes der Referendare an den Schulen, die oft nicht adäquat zur angestrebten Ausbildung erfolgt. Die Forderungen der Arbeitsgruppe beziehen sich somit auf einen fach- und jahrgangsstufengerechten Einsatz, bei dem die Zahl der zu unterrichtenden Stunden in gleichem Maße auf die gewählten Fächer erfolgt. Die Empfehlungen der Seminarleiter sollten bei der Einsatzplanung für die Referendare Berücksichtigung finden. Insbesondere darf der Einsatz im Vorbereitungsdienst nicht mit der Maßgabe des Abdeckens von Lücken in der Unterrichtsversorgung – zu Lasten der Ausbildung – erfolgen. Mit Besorgnis muss darum auch die Entwicklung in einigen Bundesländern gesehen werden, in denen eigenverantwortliches Unterrichten im Vorbereitungsdienst anstelle einer fachbezogenen, schulpraktischen Ausbildung für die Referendare tritt. 3.3 Curriculare Standards Schon im Zusammenhang mit der Verzahnung der ersten und zweiten Phase wurde die Frage nach curricularen Standards für die zweite Phase der Lehrerausbildung gestellt. Vertiefend ist zu diskutieren, ob landeseinheitliche Standards unter Berücksichtigung der konkreten Rahmenbedingungen oder bundeseinheitliche Standards, die entsprechend allgemeiner gehalten sein müssten, anzustreben sind. Die Klärung dieser Fragen erfordert den Erhalt und den Ausbau der Vernetzung der Seminarleiter. 4 Weiterbildung Für den Bedarf an Weiterbildungen wurden 3 Zielgruppen von Lehrern identifiziert. - 62 - 4.1 Quereinsteiger in den Lehrerberuf – Ziel: Informatiklehrer Diese Kolleginnen und Kollegen haben bereits ein Studium der Informatik absolviert und verfügen über vertiefte Kenntnisse in einem oder mehreren Teilgebieten der Informatik. Neben dem Erwerb allgemeiner schul-pädagogischer und -psychologischer Kompetenzen wird für die fachdidaktische Qualifikation eine qualifizierte Beratung und Betreuung im schulischen Umfeld als sinnvoll angesehen. Eine Erweiterung bestimmter fachlicher Kenntnisse sollte unter dem Aspekt der Vermittlung im Unterricht erfolgen. Dies ist beispielsweise durch die Vorgabe von Impulsbeispielen und der anschließenden Anpassung auf andere Inhalte und/oder Schülergruppen möglich. 4.2 Quereinsteiger in die Informatik – Ziel: Informatiklehrer Diese Kolleginnen und Kollegen besitzen einen pädagogischen Abschluss und sind bereits im Schuldienst mit einer Lehrbefähigung in anderen Unterrichtsfächern tätig. Eine Affinität“ zur Informatik und das Interesse am Lösen von Problemen mit Methoden der ” Informatik sollte vorausgesetzt werden. Als nicht zwingend wird eine Lehrbefähigung in Mathematik angesehen, um die Beziehung der informatischen Bildung für alle Wissenschaftsbereiche zu dokumentieren. Die Weiterbildung sollte in Form eines speziell auf diese Zielgruppe zugeschnittenen Studiengangs erfolgen, der anzustrebende Abschluss sollte idealerweise das Staatsexamen sein. Die Studienorganisation sollte an die personalen und schulischen Bedürfnisse angepasst sein. Von der Schulleitung und der Schulaufsicht wird eine ideelle und materielle Anerkennung des Studiums als Teil der Berufsausübung erwartet. 4.3 Alle Lehrer im Schuldienst – Ziel: informatisch gebildete Lehrer Informatik als Teil der Allgemeinbildung darf gerade die Gruppe der Lehrer aller Fächer nicht ausnehmen. Auch unabhängig von einer Lehrbefähigung für dieses Fach sollte jeder Kollege grundlegende Kompetenzen auf informatischem Gebiet besitzen. Die Überlegungen zum Umfang der Kompetenzaneignung lassen die Forderungen der Bildungsstandards [GI08] als naheliegendes Kriterium erscheinen – gleichwohl bestehen Bedenken, ob wirklich alle Teile der Bildungsstandards für Lehrer gleichermaßen relevant sind. Gestützt werden diese Bedenken dadurch, dass auch Teile von Inhalten anderer Schulfächer weit nach Abschluss der Schulzeit nicht von jedem – auch nicht von jedem Lehrer – beherrscht werden. Eine offene Frage bleibt die Art und Weise der Qualifikation aller Kolleginnen und Kollegen. Neben der Überwindung subjektiver Widerstände bei den Lehrern ist zu klären, wo und durch wen diese Weiterbildung erfolgen soll. Das Spektrum möglicher Antworten reicht von universitären Kursen bis zu Schulungen im Lehrerteam durch bereitwillige Kolleginnen und Kollegen. - 63 - 5 Informatik für alle Lehrer Die Forderung nach informatischer Bildung für Studierende aller Lehrämter verschiedener nicht-informatischer Fachrichtungen führt zunächst zur Diskussion, was computer literacy für Lehrer umfasst. Auch hier ist naheliegend, sich auf die Forderungen der Bildungsstandards für die Klassen 5-10 [GI08] zu beziehen und unter computer literacy Grundkonzepte der informatischen Bildung auf Basis der Bildungsstandards zu verstehen. Da derzeit nicht davon ausgegangen werden kann, dass die geforderten Mindeststandards durch die Schule erfüllt werden, und somit auch die Kolleginnen und Kollegen, die sich jetzt in der Ausbildung oder schon in der Schule befinden, diese geforderte Allgemeinbildung nicht besitzen, müssen durch das Lehramtsstudium und Fortbildungen entsprechende Kompensationsleistungen erbracht werden. Angestrebt wird eine exemplarische Aneignung von Kompetenzen, die den entsprechenden Fachrichtungen der Ausbildung (naturwissenschaftlich, geisteswissenschaftlich, künstlerisch-musisch bzw. sprachlich) zuzuordnen ist. Dabei muss kein unmittelbarer Unterrichts- oder Lehrplanbezug erfolgen. Die konkrete Umsetzung für das Unterrichtsfach kann dann beispielsweise für die erste Phase innerhalb der Didaktikausbildung, für die zweite Phase in den Seminaren zur Lehrerausbildung erfolgen. Diese Form der informatischen Bildung im Rahmen des Lehramtsstudiums soll aber nicht zum Unterricht im Fach Informatik berechtigen. Die daraus resultierende Problematik der Inhalte für die Informatiklehrerausbildung führt wieder zur Thematik der ersten Arbeitsgruppe in Abschnitt 2 zurück. 6 Ausblick Dieser Artikel entstand in Auswertung eines Workshops anlässlich der Infos 2009. Viele der hier genannten Darstellungen und Thesen bedürfen einer genauen Verifikation, es existieren nur in Ansätzen verlässliche Daten zur Situation der Lehrerausbildung im Fach Informatik. Hier besteht also großer Klärungsbedarf. Ebenfalls wird zu diskutieren sein, inwieweit die vorliegende Bilanz und Agenda vollständig ist. Es ist die Intention der Verfasser, mit dieser vorläufigen Bestandsaufnahme einen Diskussions- und Entwicklungsprozess anzuregen, der auf lange Sicht die Situation der Informatiklehrerausbildung verbessert. Dies kann z. B. durch die Veröffentlichung von BestPractice-Beispielen und (hochschul-)didaktische, empirische Forschung geschehen. Außerdem sind viele der angeschnittenen Bereiche nicht fachspezifische Probleme der Informatik, sondern struktureller Natur und in der Lehrerbildung allgemein verankert. Hier ist zu klären, welche Teilbereiche informatikspezifisch sind, welchen Beitrag einerseits die Erfahrungen aus anderen Fächern für uns leisten können und wo unsere Sicht umgekehrt für die Lehrerbildung allgemein förderlich wäre. - 64 - Literatur [Die09] I. Diethelm: Informatische Bildung in Niedersachsen, Log In, 29(156), 2009. [GI08] Gesellschaft für Informatik (GI) e. V.: Grundsätze und Standards für die Informatik in der Schule – Bildungsstandards Informatik für die Sekundarstufe I. In: LOG IN, 28(2008)150/151 [KMK08] Kultusministerkonferenz: Ländergemeinsame inhaltliche Anforderungen für die Fachwissenschaften und Fachdidaktiken in der Lehrerbildung, http: //www.kmk.org/fileadmin/veroeffentlichungen_beschluesse/ 2008/2008_10_16-Fachprofile.pdf, 2008, zuletzt besucht: 30.06.2009 - 65 - Teil 2 Forschung zu Aufgaben und Problemlösestrategien Eine Studie zu den Merkmalen der Aufgabenschwierigkeit am Beispiel eines Informatik-Schülerwettbewerbs Zweiter Teil: Empirische Aufgabenanalyse Kirsten Schlüter Didaktik der Informatik Universität Erlangen-Nürnberg Martensstraße 3, 91058 Erlangen [email protected] Zusammenfassung: Als Fortsetzung einer Studie zu den Schwierigkeitsmerkmalen von Informatikaufgaben wird in diesem Artikel die empirische Aufgabenanalyse anhand der Bearbeitungsdaten eines Informatik-Schülerwettbewerbs für die Sekundarstufe dargestellt. Die Wettbewerbsaufgaben wurden vorangehend bereits nach den vermuteten Kriterien der Aufgabenschwierigkeit klassifiziert. Auf der Basis der Ergebnisse dieser Aufgabenklassifizierung (Teil 1) und der empirischen Analyse (Teil 2), die die Schwierigkeit und die Trennschärfe der Aufgaben liefert, werden noch folgend die relevanten Schwierigkeitsmerkmale ausgewählt und die Dimensionen des Kompetenzanspruchs untersucht (Teil 3). 1 Zielsetzung Mit dem Ziel, den Kompetenzanspruch von Informatikaufgaben zu modellieren, wird eine dreiteilige Studie durchgeführt, der die Teilnahmedaten des Online-Schülerwettbewerbs Informatik-Biber zu Grunde liegen. Zur Operationalisierung der spezifischen Kompetenzanforderungen von Informatikaufgaben soll ein Kriterienschema entwickelt werden, das es ermöglicht, Informatikaufgaben fundiert bezüglich ihrer Schwierigkeit einzuschätzen und in ein Modell des Kompetenzanspruchs einzuordnen. Das Schema soll sich an bewährten Taxonomien orientieren, auf den Aufgabenbestand anwendbar und im Alltag, nicht nur in der didaktischen Forschung, handhabbar sein, damit eine direkte Evaluation der Lernvoraussetzungen und Unterrichtserfolge im Schulfach Informatik durchgeführt werden kann. In diesem Artikel wird ausschließlich über den zweiten Teil der Studie, die empirische Aufgabenanalyse, berichtet. Auf die bereits abgeschlossene Klassifizierung der Aufgaben nach den Kriterien und die geplanten statistischen Analysen der Effekte der Aufgabenmerkmale und der Dimensionalität der Aufgabenschwierigkeit wird nur Bezug genommen, soweit es zur Einbettung der hier beschriebenen Untersuchungen erforderlich ist. Abbildung 1 zeigt die Arbeitsschritte der Studie in einem Schaubild. - 69 - Teil 3 Theorie: Merkmale der Schwierigkeit InformatikWettbewerb: Aufgaben Bearbeitung der Aufgaben durch Schüler Erklärungsmodelle Teil 1 Experteneinschätzung Teil 2 Häufigkeiten analysieren Aufgabenklassifizierung Personenparameter Aufgabenparameter •Relevante Merkmale (Varianzanalyse) •Prognose (Regressionsanalyse) •Dimensionen (Faktorenanalyse) •Diagnose (Clusteranalyse) Abbildung 1: Methodik Teil 1 Im bereits abgeschlossenen ersten Teil wurde aufgrund von Experteneinschätzungen die Klassifizierung der Wettbewerbsaufgaben nach charakterisierenden Merkmalen, die die Schwierigkeit und damit die spezifischen Kompetenzanforderungen bestimmen, vorgenommen. Als Schwierigkeitskriterien wurden zehn Merkmale begründet und untersucht: Inhaltsbereich, Erfahrungsweltnähe, Abstraktionsgrad, Komplexität, Formalisierungsgrad, Redundanz, Anforderungsbereich, Prozessbereich, kognitive Lernzielstufe und Art des Wissens [Sc09] 1. Zu den abgedruckten Aufgabenbeispielen sind in den Bildunterschriften auch die Klassifizierungsergebnisse aufgeführt (Abbildungen 2, 6, 9 und 10). Teil 2 In diesem Artikel wird über den zweiten Teil der Studie berichtet, die empirische Aufgabenanalyse, bei der anhand der anonymisierten Bearbeitungsresultate der 20.000 Schüler und Schülerinnen der Sekundarstufe, die 2007 am Informatikwettbewerb teilgenommen haben, Schwierigkeitsparameter der Aufgaben und Personenparameter der Teilnehmer berechnet werden. Teil 3 Erst im Abgleich der Teilstudienergebnisse, der Merkmalsklassifizierung (Teil 1) mit den Aufgabenparametern (Teil 2), kann der Zusammenhang der Merkmale mit der Aufgabenschwierigkeit überprüft werden. Dieses wird erst im dritten Teil durchgeführt, in dem Erklärungsmodelle betrachtet werden, die den Effekt der Schwierigkeitsmerkmale beschreiben. Erfolgversprechend sind Varianzanalysen zur Beurteilung der Relevanz der Merkmale, Faktorenanalysen zur Exploration der Dimensionalität des Kompetenzanspruchs, Regressionsanalysen zur Prognose der Aufgabenschwierigkeit, und schließlich Clusteranalysen zur Abgrenzung homogener Schülergruppen. 1 Unter http://ddi.informatik.uni-erlangen.de/research/kompetenzmodell/ stehen die versendeten Unterlagen sowie die Ergebnisse der Experteneinschätzung als Häufigkeitsverteilungen zur Verfügung. - 70 - 2 Aufgabenanalyse: Datengrundlage In der empirischen Aufgabenanalyse werden die Wettbewerbsaufgaben des OnlineSchülerwettbewerbs Informatik-Biber untersucht. Der Biber ist das Einstiegsangebot des Bundeswettbewerbs Informatik, ein Projekt der Gesellschaft für Informatik (GI) und des Fraunhofer-Verbunds IuK-Technologie, gefördert vom Bundesministerium für Bildung und Forschung. Der Wettbewerb wird seit 2006 jährlich ausgerichtet und ist an Schüler der Jahrgangsstufen 5 bis 13 adressiert. Die Aufgaben sind kurz und erfordern eine informatische Denkweise und Problembearbeitung, aber keine Vorkenntnisse in Informatik [Po09] 2. Abbildung 2 zeigt die Beispielaufgabe Binärbaum. Der Wettbewerb wurde im Jahr 2007 in drei Altersgruppen durchgeführt: 5. bis 7., 8. bis 10., ab 11. Jahrgangsstufe. Jeder Altersgruppe lagen 15 der insgesamt 29 Aufgaben zur Bearbeitung vor. Wie in Tabelle 1 angedeutet, wurde für jeden der 20.000 Teilnehmer je Aufgabe erfasst, ob der Teilnehmer die Aufgabe korrekt (1) oder nicht korrekt gelöst (0) oder nicht bearbeitet hat (-). Die Zeilensummen entsprechen der Anzahl gelöster Aufgaben und geben einen Hinweis auf die Fähigkeit eines Teilnehmers, die Wettbewerbsaufgaben zu lösen. Die Spaltensummen entsprechen der Anzahl der Teilnehmer, die eine Aufgabe gelöst haben, und dienen als Ausgangswerte für die Schätzung der Aufgabenparameter Schwierigkeit und Trennschärfe aus den Wettbewerbsdaten. Teilnehmer- JahrgangsID stufe 1 5 bis 7 2 5 bis 7 3 8 bis 10 4 8 bis 10 5 ab 11 … … Spaltensumme Aufgabe 1 1 1 1 0 … 13555 Aufgabe 2 0 1 0 0 … 6418 … … … … … … … … Aufgabe 15 0 0 0 1 1 … 11765 Zeilensumme 8 8 5 13 9 … Tabelle 1: Datenauszug mit Zeilen- und Spaltensummen, Informatik-Biber 2007 Anzumerken ist, dass es sich bei dem Aufgabensatz nicht um einen psychometrischen Test handelt, der nach den Regeln der klassischen oder probabilistischen Testtheorie konstruiert wurde, wie etwa die Schulleistungsuntersuchungen der OECD PISA-Studie [OE06]. Vielmehr ist der Informatik-Biber 2007 ein informeller Leistungstest, der nur erlaubt, die Teilnehmer bezüglich ihrer Testergebnisses zu vergleichen. Sollen weitergehende Rückschlüsse auf Eigenschaften und Fähigkeiten der Teilnehmer gezogen werden, ist der Aufgabensatz auf Reliabilität und Validität zu überprüfen, sowie Durchführung und Auswertung des Wettbewerbs auf ihre Objektivität. Die Fragestellung dieser Studie betrifft aber zunächst nicht die Wettbewerbsteilnehmer, sondern die Aufgaben. Welche Merkmale sind es, die ihre Schwierigkeit beeinflussen und wie wirken sie zusammen? Die Beantwortung erfordert zum einen die aus dem ersten Teil bereits vorliegende Klassifizierung der Aufgaben nach den postulierten Schwierigkeitsmerkmalen [Sc09] und 2 Die Webseite des Informatik-Bibers ist unter http://www.informatik-biber.de zu finden. Im Archiv stehen die Aufgaben der Wettbewerbe 2007 bis 2009 zur Verfügung. - 71 - zum anderen die hier beschriebene Analyse der Aufgaben im Hinblick auf Aufgabenparameter wie Schwierigkeit und Trennschärfe. Erst wenn die Teilergebnisse zusammengeführt und Effekte der Merkmale nachgewiesen wurden, richtet sich das Augenmerk auf die individuellen Wettbewerbsprofile der Teilnehmer. Dies ist ein Beispiel für einen Binärbaum. Ein Binärbaum hat eine Wurzel (die ist oben – hier „A“), von der maximal zwei Äste abgehen. Am Ende eines Astes ist immer genau ein Knoten (hier „B“ bis „G“). Von jedem Knoten gehen wiederum maximal zwei Äste ab. Der Binärbaum rechts wird auch durch folgende Zeichenkette beschrieben: (A(B(C))(D(E(F))(G))) A B C D E G F Welcher der unten gezeigten Binärbäume wird durch folgende Zeichenkette beschrieben? ( A) ( )( ( )( )) ) B) C) D) Abbildung 2: Aufgabe Binärbaum, Informatik-Biber 2007, Jahrgangsstufe 8 bis 10. Inhaltsbereich Information und Daten (Graphen), erfahrungsweltfern, konkret, mittel komplex, formal, nicht redundant, Anforderungsbereich Anwendung, Prozessbereich Darstellen und Interpretieren, Lernzielstufen Anwenden und Analysieren, Wissensart Konzepte. 3 Aufgabenanalyse: Kennzahlen Unter der Schwierigkeit einer Aufgabe soll die empirische Schwierigkeit verstanden werden, das ist der Anteil der Personen, die die Aufgabe korrekt lösen. Unter der Trennschärfe soll der Grad verstanden werden, in dem eine Aufgabe zwischen den Testpersonen differenziert, das heißt, Personen mit hoher Leistung im Gesamttest lösen die Aufgabe deutlich öfter als Personen mit geringer Gesamtleistung. Während die Aufgabenschwierigkeit als Zielvariable in die statistischen Analysen eingeht, dient die Trennschärfe als Maß für die Aufgabengüte und als Kriterium, welche Aufgaben in die Interpretation der statistischen Ergebnisse einbezogen werden. 3.1 Aufgabenschwierigkeit Der einfachste Schwierigkeitsindex ist der prozentuale Anteil der Personen, die eine Aufgabe lösen, P = NR / N * 100 (NR ist die Anzahl der Personen, die die betreffende Aufgabe gelöst haben – das ist die Spaltensumme in Tabelle 1. N ist die Anzahl der Personen, denen die Aufgabe vorlag). Hier wird zur Messung der Aufgabenschwierigkeit ein Schwierigkeitsindex mit Inangriffnahmekorrektur verwendet, PIK = NR / NB * 100 (NR wie oben, NB ist die Anzahl der Personen, die die betreffende Aufgabe bearbeitet haben [Bü06]). Die Variante mit zusätzlicher Inangriffnahmekorrektur, die berücksich- - 72 - tigt wie viele Personen eine Aufgabe tatsächlich bearbeitet haben, wurde wegen der guten Passung zur Fragestellung gewählt. Systematische Vergleiche beider Varianten und weiterer Indizes ergaben nur geringfügige und regelmäßige Verschiebungen der Schwierigkeitswerte. In Tabelle 2 sind die Schwierigkeitswerte (Index) und deren Unterschiede zwischen den Jahrgangsstufen (Differenz) sowie die Trennschärfen (Koeffizient, siehe Kapitel 3.2) vollständig aufgelistet. Kennzahl: Jahrgangsstufe: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 Biber am Fluss Biber und Bisons Bibers Geheimcode Biberzahlen Binärbaum Computervirus Dateisuche Dino-Ordnung Endlos-Schleife Falschgeld Fenster schließen Labyrinth Link Links um! Morse-Code Netzwerkkabel Platzwechsel POP und PUSH Primärschlüssel Private E-Mail Schnitzeljagd Sicheres Passwort Umparken Ungeschützter PC Verschlüsselung Verwandlung Wertetausch Wetter Zahlenreihe Mittelwert: Standardabweichung: Index der Schwierigkeit (%) 5-7 8-10 11+ (I) (II) (III) 84,3 69,7 79,3 39,9 56,1 30,1 46,3 59,6 55,5 67,3 77,8 47,5 20,0 47,7 66,1 39,1 58,7 92,9 48,9 77,4 68,8 25,7 51,4 67,3 82,4 51,7 31,7 50,6 47,4 35,3 42,4 57,4 69,5 68,9 62,5 77,2 21,7 24,7 31,5 39,4 43,4 35,9 23,9 33,5 46,9 54,3 51,1 51,5 24,5 15,0 16,7 Differenz (Δ Index) Koeffizient der Trennschärfe (%) 5-7 8-10 11+ I, II II, III (I) (II) (III) 46,5 9,6 39,4 36,9 16,2 49,7 48,8 16,2 40,8 46,8 46,0 11,8 10,5 42,5 38,4 35,4 43,8 42,7 18,4 39,6 46,8 19,6 43,6 51,6 37,2 36,7 47,4 51,4 39,1 15,9 50,4 48,4 46,2 48,0 18,9 37,1 45,6 39,9 7,1 15,0 39,0 47,5 46,9 -0,6 38,9 28,4 14,7 52,7 49,1 Δ I, III: 3,0 26,7 27,1 7,9 36,4 35,7 51,5 46,5 34,9 13,4 47,5 47,6 10,4 14,7 43,2 42,2 24,9 6,2 4,3 6,9 6,1 7,2 Tabelle 2: Aufgabenkennzahlen. In den Jahrgangsstufen 5-7, 8-10, 11+ wurden jeweils 15 der insgesamt 29 Wettbewerbsaufgaben gestellt. Der Schwierigkeitsindex bezieht sich auf die Stufe, so dass es für mehrfach verwendete Aufgaben mehrere Schwierigkeitswerte gibt. - 73 - Zur übersichtlichen Darstellung in allen folgenden Diagrammen können die Aufgaben nach der Schwierigkeit in den Jahrgangsstufen geordnet werden. Die Werte reichen von 20 % für Dino-Ordnung (d. h. 20 % korrekte Lösungen, also vergleichsweise schwierig) bis 92,9 % für Fenster schließen (d. h. 92,9 % korrekte Lösungen, also eine sehr leichte Aufgabe). Werden die stufenübergreifend gestellten Aufgaben zur Verankerung genutzt, gelingt es bis auf wenige Konflikte sogar, eine gemeinsame Ordnung aller Aufgaben herzustellen. Abbildung 3 zeigt die geordneten Schwierigkeitswerte aller Aufgaben, mehrfach verwendete Aufgaben werden durch verbundene Punkte dargestellt. Abbildung 3: Anordnung der Aufgaben nach ihrer Schwierigkeit in der Stufe 5-7. Konflikte ergeben sich nur vereinzelt bei Aufgaben, deren Schwierigkeitsunterschied zwischen den Jahrgangsstufen um mehr als eine Standardabweichung von der mittleren Differenz abweicht (Δ I/II, Δ II/III, Tabelle 2). So verletzt die Einordnung der Aufgabe Schnitzeljagd (Abbildung 10) gemäß Index I die Ordnung in den Stufen II und III. Solchen Aufgaben kommt besondere Aufmerksamkeit zu, weil sie Anhaltspunkte liefern, welche Merkmale die Aufgabenschwierigkeit in einer Altersgruppe beeinflussen. 3.2 Trennschärfe Mögliche Maße für die Trennschärfe von Aufgaben sind der Korrelationskoeffizient zwischen Aufgabenergebnis und Gesamttestergebnis (z. B. Punkt-biseriale Korrelation [BD05], Korrigierte Item-Skala-Interkorrelation [Bü06]) oder die Schwierigkeitsdifferenz zwischen den beiden Extremgruppen, den 25 % besten und den 25 % schlechtesten Testteilnehmern (z. B. Index of Discrimination [EF91]). Die Trennschärfe bemisst also, in welchem Grad die Aufgabe den Gesamttest repräsentiert. Eine trennscharfe Aufgabe wird häufiger von im Testsinne guten Schülern korrekt gelöst als von schlechten. - 74 - Vergleiche verschiedener Trennschärfe-Kennzahlen ergaben für die Wettbewerbsaufgaben lediglich Verhältnisunterschiede, keine Rangunterschiede. Für die Studie wurde die Korrelation zwischen dem Aufgabenergebnis und dem Personenparameter „Anzahl gelöster Aufgaben“ gewählt – das ist die Zeilensumme in Tabelle 1. Der Vorteil des Korrelationskoeffizienten besteht darin, dass die Variable, die als Testergebnis herangezogen wird, mit geringem Aufwand durch alternative Variablen ersetzt werden kann, etwa durch die Punktzahl, die im Wettbewerb vergeben wurde, und die auf theoretischen Schwierigkeitseinschätzungen der Aufgabensteller beruht. In Tabelle 2 sind neben den Schwierigkeitswerten die Trennschärfe-Koeffizienten aller Aufgaben aufgelistet. Die Diagramme in Abbildung 4 vermitteln einen Überblick über die Schwierigkeit und Trennschärfe der Aufgaben in den drei Altersgruppen. Die Schwierigkeit der Aufgaben (schwarz durchgezogene Linie) streut in der ersten Gruppe am stärksten, von 20 % bis 92,9 %, in den anderen beiden Gruppen nur von 30,1 % bis 77,2 % beziehungsweise von 25,7 % bis 79,3 %, siehe auch Tabelle 2. Erwartungsgemäß weisen Aufgaben mittlerer Schwierigkeit höhere Trennschärfen auf als leichte und schwierige Aufgaben, die von allzu vielen Personen beziehungsweise nur von sehr wenigen Personen gelöst werden. Dies wird durch den Discrimination-Index (grau gestrichelte Linie) stärker betont als durch den Trennschärfe-Koeffizienten (schwarz gepunktete Linie). Korrelationstypisch gelten Werte im Bereich von 30 % bis 50 % (graue Bezugslinie) als mittlere, oberhalb davon als hohe Trennschärfen. Abbildung 4: Schwierigkeitsindex (schwarz durchgezogene Linie), Trennschärfekoeffizient (schwarz gepunktet), Index of Discrimination (grau gestrichelt), 50 %-Bezugslinie (grau). 3.3 Ergebnisse Das Hauptergebnis der Aufgabenanalyse ist die empirische Schwierigkeit, Index I-III in Tabelle 2, die als Aufgabenparameter für die Berechnung der statistischen Erklärungsmodelle benötigt wird. Die Kennzahlen erschließen darüber hinaus bei geeigneter Darstellung das Aufgabenmaterial. Mit ihrer Hilfe lassen sich Aufgaben identifizieren, die zur Interpretation der statistischen Resultate beitragen. Das können die schwierigen Aufgaben sein, deren Merkmalsprofile eventuell Auffälligkeiten zeigen. Das können auch die Aufgaben sein, deren Schwierigkeitsentwicklung zwischen den Jahrgangsstufen Unregelmäßigkeiten aufweist. Und das können die Aufgaben mit hoher Trennschärfe sein, deren Anforderungsprofile die im Wettbewerb erfolgreichen Schüler besonders deutlich von den anderen Teilnehmern unterscheiden. - 75 - In den folgenden Streudiagrammen werden Aufgabenschwierigkeit und Trennschärfe der Wettbewerbsaufgaben miteinander verknüpft. Die Symbole enthalten die Information, in welchen der drei Altersgruppen eine Aufgabe verwendet wurde. Die „Verwendung“ zeigt lediglich an, ob die Datenlage einen stufenübergreifenden Vergleich ermöglicht. Sie ist nicht als Aufgabenmerkmal „Eignung“ zu verstehen, weil eine Aufgabe nicht unbedingt in jeder Altersgruppe verwendet wurde, für die sie geeignet erscheint (Abbildungen 5, 7 und 8). Abbildung 5: Aufgabenkennzahlen für die Gruppe I, Jahrgangsstufe 5-7 In der Altersgruppe I, 5. bis 7. Jahrgangsstufe, fällt auf dass beide Aufgaben zum Thema Logisches Schließen, Dino-Ordnung und Wetter (Abbildung 6) einen besonders hohen Schwierigkeitsgrad aufweisen. Es stellt sich die Frage, inwieweit diese Schwierigkeit durch den Inhaltsbereich, Schlussfolgern, erzeugt wird. Angenommen, das Wetter folge der Regel: “Wenn an einem Tag die Sonne scheint, dann scheint auch am folgenden Tag die Sonne.” Wenn heute die Sonne scheint, was kannst du daraus folgern? A) Die Sonne schien bisher jeden Tag und wird auch jeden weiteren Tag scheinen. B) Gestern schien die Sonne. C) Die Sonne wird nie wieder scheinen. D) Von heute an wird jeden Tag die Sonne scheinen. Abbildung 6: Aufgabe Wetter, Informatik-Biber 2007, 5. bis 7. Jahrgangsstufe. Inhaltsbereich Automaten und Sprachen (Logisches Schließen als formales Kalkül), erfahrungsweltnah, konkret, einfach, informell, nicht redundant, Anforderungsbereich Anwendung, Prozessbereiche Begründen und Bewerten sowie Strukturieren und Vernetzen, Lernzielstufen Verstehen und Anwenden, Wissensart Konzepte. - 76 - Abbildung 7: Aufgabenkennzahlen für die Gruppe II, Jahrgangsstufe 8-10 Ebenso besitzt die Aufgabe Ungeschützter Computer einen hohen Schwierigkeitsgrad, in der Gruppe I wie auch in der Gruppe III, ab 11. Jahrgangsstufe. Da Anwenderwissen erfragt wird, das in der 11. Jahrgangsstufe auch ohne schulischen Informatikunterricht vorhanden sein sollte, wird vermutet, dass die Schwierigkeit auf Gründe zurückgeht, die nicht Bestandteil dieser Untersuchung sind, etwa die missverständliche Formulierung der Antwortalternativen. Aufgaben wie diese werden mit entsprechendem Vorbehalt in den Analysen berücksichtigt. Abbildung 8: Aufgabenkennzahlen für die Gruppe III, Jahrgangsstufe 11+ Der Themenbereich Codierung stellt einige der schwierigsten Aufgaben in den Gruppen II und III, Biberzahlen und Verschlüsselung in der Jahrgangsstufe 8-10, Morse-Code in der Stufe 11+. Das gibt Anlass, die Aufgaben aus diesem Bereich auf spezifische Schwierigkeitsmerkmale zu untersuchen. - 77 - Umparken, mit dem Inhalt Datenstrukturen, und Links um!, aus dem Bereich Algorithmen (Abbildung 9), sind die trennschärfsten Aufgaben in der Gruppe I. Umparken wurde auch in der Altersgruppe II gestellt, wiederum mit hoher Trennschärfe, aber mit geringer Schwierigkeit. Ähnlich verhält es sich mit der Aufgabe Netzwerkkabel, Thema Graphen. Sie weist die höchste Trennschärfe in Stufe II auf und rangiert auch in Stufe III unter den Aufgaben mit guter Trennschärfe, bei geringerer Schwierigkeit. Die höchste Trennschärfe besitzt in Stufe III ebenfalls eine Graphen-Aufgabe, Verwandlung, neben einer Algorithmen-Aufgabe, Falschgeld. Du hast einen Spielzeugroboter, der folgende Befehle auf Zuruf ausführen kann: Befehl Vor! Rechts! Bedeutung Der Roboter fährt 10 cm nach vorne. Der Roboter dreht sich nach rechts (um 90 Grad, also einen Viertelkreis). Du möchtest nun den Roboter so bewegen, dass er am Ende um 90 Grad (einen Viertelkreis) nach links gedreht ist. Mit welcher Befehlsfolge kannst du das erreichen? A) Vor! Vor! B) Rechts! Rechts! C) Rechts! Rechts! Rechts! D) Vor! Rechts! Vor! Abbildung 9: Aufgabe Links um!, Informatik-Biber 2007, Jahrgangsstufe 5-7. Inhaltsbereich Algorithmen, mittel entfernt von der Erfahrungswelt, konkret, einfach, informell, nicht redundant, Anforderungsbereich Anwendung, Prozessbereich Modellieren und Implementieren, Lernzielstufe Anwenden. Die Wissensart konnte nicht übereinstimmend zugeordnet werden. Die Aufgaben Computervirus, zum Thema Benutzerverhalten, und Schnitzeljagd, zum Thema Automaten (Abbildung 10), wurden in allen drei Altersgruppen eingesetzt und erwiesen sich als exemplarische Aufgaben mittlerer Schwierigkeit, die in der untersten Jahrgangsstufe am schwierigsten, in der oberen Jahrgangsstufe am leichtesten gelöst werden, und deren Trennschärfe im mittleren Schwierigkeitsbereich am deutlichsten ausgeprägt ist. Auf seinem Weg vom Start zum Ziel folgt Florian den Pfeilen, beliebig lange. Jedes Mal, wenn er einen Pfeil entlang gegangen ist, sammelt er den zugehörigen Buchstaben ein. Und verlängert damit eine Kette der gesammelten Buchstaben. Bei einigen Pfeilen kann er keinen Buchstaben einsammeln. b a Welche der folgenden Buchstabenketten 1 2 kann Florian auf seinem Weg vom Start a START b zum Ziel nicht einsammeln? a ZIEL A) abaabba C) abaaab 3 4 B) ba D) aab b a Abbildung 10: Aufgabe Schnitzeljagd, Informatik-Biber 2007, Jahrgangsstufen 5-7, 8-10, ab 11. Inhaltsbereich Sprachen und Automaten, erfahrungsweltfern, konkret, mittel komplex, formal, nicht redundant, Anforderungsbereich Anwendung, Lernzielstufen Anwenden und Analysieren, Wissensart Prozeduren. Der Prozessbereich konnte nicht übereinstimmend zugeordnet werden. - 78 - 3 Ausblick Die 29 Wettbewerbsaufgaben wurden anhand der Bearbeitungsdaten von 20.000 Teilnehmern auf ihre Schwierigkeit und Trennschärfe untersucht. Diese Aufgabenparameter sowie Personenparameter, wie Anzahl und Merkmalsausprägung der gelösten Aufgaben, bilden gemeinsam mit der Aufgabenklassifizierung aus dem ersten Teil die nun vervollständigte Ausgangsbasis für den nächsten Schritt, die Erklärung des Kompetenzanspruchs durch charakteristische Aufgabenmerkmale. Dazu sind statistische Analysen zur Prüfung verschiedener Erklärungsmodelle geplant, zum Beispiel Regressionsanalysen, um die Aufgabenschwierigkeit aus den Kriterien vorherzusagen. Einen rechnerischen Hinweis darauf, dass das durch die Aufgabenschwierigkeit erfasste Konstrukt nicht eindimensional ist, liefert die geringe Homogenität der Aufgaben: die Item-Interkorrelation beträgt in allen Altersgruppen weniger als 20 %. Weitere Untersuchungen zur Dimensionalität sind erforderlich und werden im abschließenden dritten Teil der Studie durchgeführt. Es wird erwartet, mittels Faktorenanalysen eine mehrdimensionale Struktur der Aufgabenschwierigkeit und damit des Kompetenzanspruchs herausarbeiten zu können. In die erste, visuelle Bestandsaufnahme der Aufgabenkennzahlen Schwierigkeit und Trennschärfe wurde bereits der Inhaltsbereich informell mit einbezogen. Das Merkmal Inhaltsbereich und die weiteren Aufgabenmerkmale Erfahrungsweltnähe, Abstraktionsgrad, Komplexität, Formalisierungsgrad, Redundanz, Anforderungsbereich, Prozessbereich, kognitive Lernzielstufe und Art des Wissens gehen systematisch in die Analyse und Interpretation der Ergebnisse ein. In dem Fall dass die Faktorenanalyse nicht zu den gewünschten Faktoren führt, die als Dimensionen des Merkmalsraums interpretierbar sind, ist ein weiterer erfolgversprechender Ansatz zur Exploration des Schwierigkeitsgefüges, die Schülerinnen und Schüler mittels Clusteranalysen zu „ähnlichen“ Gruppen zusammenzufassen. Dabei bedeutet „ähnlich“, die Schüler haben Aufgaben gleichen Schwierigkeitsgrades bzw. Aufgaben mit den gleichen Schwierigkeitsmerkmalen gleich gut gelöst oder nicht gelöst. Von Interesse ist, ob typische Merkmalsprofile identifiziert werden können. Weitere Indizien zur Interpretation können aus den Ergebnissen der Informatik-BiberWettbewerbe 2008 und 2009 gewonnen werden, die mittlerweile vorliegen. Einige Aufgaben aus 2007 wurden wieder verwendet, gegebenenfalls in anderen Altersgruppen, etwa die Aufgabe Wetter, die 2007 in Stufe 5-7 als besonders schwierig auffiel und 2008 in Stufe 11+ erneut gestellt wurde. Danksagung Vielen Dank an Dr. Wolfgang Pohl, Geschäftsführer des Bundeswettbewerbs Informatik, für die freundliche Erlaubnis, die anonymisierten Wettbewerbsdaten des InformatikBibers 2007 für die Studie zu verwenden. - 79 - Literaturverzeichnis [BD05] Bortz, J.; Döring, N.: Forschungsmethoden und Evaluation. Springer Medizin Verlag, Heidelberg, 2005. [Bü06] Bühner, M: Einführung in die Test- und Fragebogenkonstruktion. Pearson Studium, München, 2006. [EF91] Ebel, R. L.; Frisbie, D. A.: Essentials of Educational Measurement. Prentice Hall, Englewood Cliffs, N. J., 1991. [OE06] (OECD Hrsg.): Assessing Scientific, Reading and Mathematical Literacy. A Framework for PISA 2006. OECDpublishing, 2006; ISBN 978-92-64-02639-1. [Po09] Pohl, W. et al.: Informatik-Biber: Informatik-Einstieg und mehr. In (Koerber, B. Hrsg.): Zukunft braucht Herkunft. 25 Jahre „INFOS – Informatik und Schule“. 13. GIFachtagung Informatik und Schule 2009 in Berlin. Bonn, Köllen, 2009; S. 38-49 [Sc08] Schlüter, K.: Eine Studie zu den Merkmalen der Aufgabenschwierigkeit am Beispiel eines Informatik-Schülerwettbewerbs. Erster Teil: Aufgabenklassifizierung. In (Koerber, B. Hrsg.): Zukunft braucht Herkunft. 25 Jahre „INFOS – Informatik und Schule“. 13. GI-Fachtagung Informatik und Schule 2009 in Berlin. Bonn, Köllen, 2009; S. 181-192. - 80 - Aufgaben der ersten Runde des Bundeswettbewerbs Informatik – Kontinuität und Wandel Gabor Meißner Abteilung für Didaktik Fakultät für Mathematik und Informatik Friedrich-Schiller-Universität Jena Ernst-Abbe-Platz 2 07743 Jena [email protected] Abstract: Seit 1985 werden innerhalb der ersten Runde des Bundeswettbewerbs Informatik Aufgaben gestellt, die Schülerinnen und Schüler für die Informatik motivieren sollen. Manche charakteristische Eigenschaften der Aufgaben sind in den vergangenen 25 Jahren praktisch unverändert. Es sind jedoch auch Wandlungen festzustellen, die auf die Entwicklung des Unterrichtsfachs Informatik an allgemeinbildenden Schulen reagieren und die die Anwendungsnähe erhöhen. 1 Einleitung Seit 25 Jahren wird der Bundeswettbewerb Informatik als Aufgabenwettbewerb durchgeführt [Po05]. Aus diesem Anlass sollen im folgenden Beitrag die Aufgaben1 der ersten Runde des Wettbewerbs genauer betrachtet werden. Dabei wird insbesondere der Frage nachgegangen, welche Änderungen sich im Laufe der vergangenen 25 Jahre ergeben haben. Untersucht werden die Aufgabeninhalte, die Methoden, die zur Lösung der Aufgaben notwendig sind, sowie die Offenheit der Aufgaben. In diesem Beitrag wird also die „Aufgabenkultur“ und nicht der Schwierigkeitsgrad der Aufgaben analysiert2. Der Bundeswettbewerb Informatik hat sich zum Ziel gesetzt hat, Jugendliche zu fördern, die Computer nicht nur bedienen, sondern auch beherrschen wollen [BI10]. Der Bundeswettbewerb will also der Tatsache Rechnung tragen, dass junge Menschen zwar Informatiksysteme als alltägliche Werkzeuge verwenden, aber häufig nicht verstehen, wie diese Werkzeuge funktionieren, wie sie zu verändern und wie zu konstruieren sind. Der Wettbewerb bietet Aufgaben an, die einen Blick auf die Funktionsweise von Informatiksystemen ermöglichen, damit diese auch beherrscht werden können. Für die Entwicklung der Aufgaben und die Festlegung des Bewertungsverfahrens ist ein 1 Die Probleme, die im Bundeswettbewerb Informatik gestellt werden, werden von deren Autoren als Aufgaben bezeichnet. Dieser Bezeichnung schließt sich der Autor des Artikels an. Aufgrund des häufigen Vorhandenseins von Barrieren, die eine routinemäßige Lösung verhindern, und wegen der Komplexität der meisten Aufgaben könnten diese aber in Anlehnung an [Dö87] auch als Probleme bezeichnet werden. 2 Zur Untersuchung der Schwierigkeit von Aufgaben vgl. eine Arbeit von Schlüter [Sc09]. - 81 - Aufgabenausschuss verantwortlich, der zurzeit von Peter Rossmanith (RWTH Aachen) geleitet wird. 2 Vorgehen Bei der Analyse werden alle 126 Aufgaben3 der ersten Runden von 1985 bis 2009 betrachtet. Die Aufgaben richten sich vor allem an Schülerinnen und Schüler der Sekundarstufe II. Zum Wettbewerb sind jedoch auch jüngere Teilnehmer zugelassen. Die Aufgabeninhalte und Methoden werden unter Heranziehung der Inhalts- und Prozessbereiche der Empfehlungen der Gesellschaft für Informatik über Grundsätze und Standards für die Informatik in der Schule [GI08] analysiert. Die GI-Empfehlungen beziehen sich auf die Sekundarstufe I. Die Inhalts- und Prozessbereiche der GIEmpfehlungen können jedoch auch zur Strukturierung der Kompetenzen von Bildungsstandards Informatik für die Sekundarstufe II genutzt werden [Fo08]. Für die Einordnung einer Aufgabe und eines Kompetenzbereichs wird nachfolgend eine vierstufige Skala genutzt. Hat der Bereich keine Bedeutung für die Aufgabe und deren Lösung, so wird ihm eine 0 zugerechnet. Ist der Bereich von untergeordneter Bedeutung, etwa nur in einer Programmausgabe (die stets Kompetenzen zur sachgerechten Darstellung einer Lösung erfordert), wird die Aufgabe in Stufe 1 eingeordnet. Ist der Bereich von größerer Bedeutung, wird die Stufe 2 verwendet. Das ist etwa dann der Fall, wenn sich eine Aufgabe mit Kenntnissen und Fähigkeiten aus einem bestimmten Bereich lösen lässt, es aber auch Möglichkeiten gibt, die Aufgabe ohne Kompetenzen aus diesem Bereich zu bearbeiten. Eine Aufgabe wird einem Bereich mit der Stufe 3 zugeordnet, wenn es zwingend nötig ist, Kompetenzen aus diesem Bereich für die Lösung der Aufgabe zu nutzen. Der Prozessbereich Kommunizieren und Kooperieren ist immer dann von Bedeutung, wenn Probleme im Team gelöst werden und dabei sachgerechte und angemessene Kommunikation sowie Kooperation stattfinden und gemeinsame Entscheidungen zur Lösung der Aufgabe auf Basis von informatischen Kompetenzen getroffen werden. Die Aufgaben der ersten Runde des Bundeswettbewerbs Informatik können allein oder im Team bearbeitet werden. Falls eine Bearbeitung im Team stattfindet, so wird der Prozessbereich Kommunikation und Kooperation berührt. Zwingend ist Teamarbeit jedoch nicht, so dass der Prozessbereich nachfolgend nicht weiter beachtet wird. Eine Aufgabe kann als offen bzw. als geschlossen charakterisiert werden. Für die Einordnung einer Aufgabe und eines Merkmals der Aufgabenoffenheit wird eine dreistufige Skala verwendet. Merkmale geschlossener Aufgaben sind, dass bereits in der Aufgabenstellung ein Lösungsweg vorgegeben wird oder dass es nur einen oder höchstens wenige Lösungswege gibt. Bei offenen Aufgaben hingegen muss ein Lösungsweg vom Wettbewerbsteilnehmer selbst erarbeitet oder zumindest gewählt werden. Nachfolgend soll nach der Anzahl der verschiedenen Lösungswege (wenige, einige oder viele) und nach der Art der Vorformulierung von Lösungsideen in der 3 Seit dem 23. Wettbewerb werden zusätzlich Junioraufgaben gestellt, die in dieser Arbeit allerdings nicht analysiert werden. - 82 - Aufgabenstellung (explizit, implizit oder nicht vorgegeben) unterschieden werden. Offene Aufgaben zeichnen sich auch dadurch aus, dass in der Aufgabenstellung nur wenig Gegebenes und Gesuchtes explizit angegeben ist, sondern dass dies offen gelassen wird [Dö87]. Ein weiteres Merkmal einer offenen Aufgabe ist das Vorhandensein einer Barriere, die es der Wettbewerbsteilnehmerin oder dem Wettbewerbsteilnehmer unmöglich macht, Standardverfahren anzuwenden. Stattdessen sind zahlreiche Kombinationen bekannter Methoden oder neue Operationen erforderlich [Kl71]. Unter Modellierung ist in der folgenden Analyse der Aufgaben zu verstehen, dass ein Modell in informatischer Notation und mit informatischen Methoden nachgebildet oder konstruiert wird. Die Implementierung ist die Umsetzung des Modells in ein für den Computer verständliches Konstrukt [Hu07]. Beim Modellieren kann entweder ein System (aus der Realität) durch eine vereinfachte struktur- und verhaltenstreue Beschreibung eines realen Systems [Ba96] nachgebildet oder ein hypothetisches (geplantes) Modell geschaffen werden [Hu07]. Modelle, die auf Beschreibungen realer Systeme beruhen, werden in diesem Beitrag deskriptiv genannt. Modelle, die Beschreibungen geplanter Systeme sind, werden als normativ bezeichnet. Bei der Einschätzung von Aufgaben wird zwischen deskriptiver und normativer Modellierung unterschieden. Deskriptives Modellieren erfordert vergleichsweise wenige Entscheidungen; diese betreffen insbesondere die Auswahl von vorgegebenen Modelleigenschaften. Normatives Modellieren erfordert hingegen vielfältigere Entscheidungen; bei der Analyse von Aufgaben wird daher nach der Anzahl der normativen Entscheidungen unterschieden („leicht normativ“ bzw. „stark normativ“). Ein Beispiel für stark normative Entscheidungen ist eine gezielte Kundenwerbung, die von Online-Versandhändlern durchgeführt wird und die auf Daten basiert, die der Versandhändler über seine Kunden gespeichert hat (z. B. zu bisher gesichteten oder gekauften Artikeln). Wegen der Vielzahl an Daten erfolgt eine Gewichtung der Kriterien. Dimension der Offenheit Anzahl der Lösungswege Vorgabe der Lösungswege Normativität Stufe 0 Stufe 1 Stufe 2 wenige einige viele explizit vorgegeben implizit vorgegeben nicht vorgegeben deskriptiv, nicht leicht normativ stark normativ normativ Tabelle 1: Die betrachteten Dimensionen der Offenheit einer Aufgabe. Die Merkmale der Aufgaben im Bundeswettbewerb Informatik werden mit einer Ordinalskala ausgewertet, weil die Abstände zwischen den einzelnen Ausprägungen nicht ohne weitere Untersuchungen als gleich angenommen werden können [We00]. Aufgaben, die aus mehreren Teilaufgaben bestehen, werden nur einmal bewertet. Der - 83 - Aufgabe als Ganzes werden alle relevanten Prozess- und Inhaltsbereiche zugeordnet4. Die Analyse der Aufgaben wurde in zwei unabhängingen Durchläufen mit einem zeitlichen Abstand von zwei Wochen vorgenommen. Wenn sich zwischen den Durchläufen Unterschiede bei der Bewertung einer Aufgabe ergeben haben, wurde eine weitere Analyse vorgenommen. 3 Charakterisierung der Aufgabe „Bunte Reihe“ Die Aufgabe „Bunte Reihe“ wurde im 15. Bundeswettbewerb 1996/ 97 gestellt [BI]. Sie lautet wie folgt: Ein Schiff soll mit Wimpeln geschmückt werden. Wir haben eine bestimmte Anzahl verschiedener Farben und von jeder Farbe eine bestimmte Anzahl von Wimpeln. Die Wimpel sollen so aufgehängt werden, dass keine zwei benachbarten Wimpel dieselbe Farbe haben. Aufgabe: Lies zunächst die Anzahl verschiedener Farben und die Namen der Farben ein und dann für jede Farbe die entsprechende Anzahl von Wimpeln. Gib dann alle Möglichkeiten aus, wie die Wimpel entsprechend der Vorschrift aufgehängt werden können. Falls es mehr als 10 Möglichkeiten gibt, gib nur die Anzahl der Lösungen und drei Wimpelfolgen aus. Neben der Entwicklung des eigentlichen Programms werden meist eine verbale Beschreibung der Lösungsidee, eine Dokumentation und in der Regel auch dokumentierte Ergebnisse von vorgegebenen oder selbstzuwählenden Testbeispielen gefordert. Bei dieser Aufgabe waren Testfälle vorgegeben. Die Aufgabe kann in die Inhaltsbereiche Daten und Information, Algorithmen sowie Automaten und Sprachen eingeordnet werden. Der Inhaltsbereich Informatiksysteme ist nicht von Bedeutung, da kein Verständnis über das Zusammenspiel der Komponenten Software, Hardware und Netze notwendig ist. Es werden auch keine Kompetenzen zu Wechselwirkungen der Informatik mit der Gesellschaft, mit Individuen oder eine Risikobewertung vorausgesetzt, weshalb die Aufgabe nicht den Inhaltsbereich Informatik, Mensch und Gesellschaft berührt [GI08]. Es ist möglich, für die Aufgabe einen Automaten und eine damit verbundene formale Sprache zu entwerfen und auf diese Weise Teile der Aufgabe zu lösen. So könnte ein gültiges Wort in dieser Sprache aus einer Folge von Wimpeln bestehen, wobei keine zwei aufeinander folgenden Wimpel die gleiche Farbe haben. Der Inhaltsbereich Information und Daten spielt ebenfalls eine Rolle. Die Daten, die dem Programm als Eingabe übergeben werden, müssen interpretiert und an- bzw. umgeordnet werden. Dazu ist je nach Lösungsweg eine angemessene Datenstruktur zu entwickeln. Eine 4 Das Herangehen unterscheidet sich von [Br09] und [Sc09]. Dort wird einer Aufgabe eine Menge geordneter Paare (p, i) zugeordnet (p ist ein Prozessbereich, i ist ein Inhaltsbereich). - 84 - grundlegende Beherrschung verschiedener Datentypen ist eine Voraussetzung für das Lösen der Aufgabe. Der Inhaltsbereich Algorithmen wird ebenfalls berührt. Die Sortierung der Wimpel und das Finden von Lösungskonfigurationen entsprechen einem algorithmischen Vorgehen. Von den Prozessbereichen der GI-Empfehlungen ist der Bereich des Modellierens und Implementierens von großer Bedeutung. Ein Problem wird analysiert, ein Modell für die Lösung in Form eines Algorithmus und eventuell dazugehöriger Datenstrukturen werden entworfen, das Modell wird implementiert und schließlich wird die Angemessenheit der Lösung überprüft und eine Bewertung der erreichten Resultate vorgenommen. Auch der Prozessbereich Begründen und Bewerten ist für die erfolgreiche Bearbeitung der Aufgabe notwendig. So sind fundierte Annahmen zu treffen, ob sich das Problem nur mittels eines Backtracking-Algorithmus lösen lässt oder ob es Möglichkeiten gibt, die zu einer Reduzierung des Zeitaufwands führen. Da die Aufgabe vergleichsweise komplex ist, ist es sinnvoll, sie in Teilen zu bearbeiten. Damit finden eine Strukturierung und ein Bezug zu (außer-) informatischen Sachverhalten statt. Trotzdem ist der Prozessbereich Strukturieren und Vernetzen nicht von so großer Bedeutung wie der Prozessbereich Implementieren und Modellieren. Kompetenzen aus dem Prozessbereich Darstellen und Interpretieren werden ebenfalls in dieser Aufgabe benötigt. Sie sind eng mit dem Überführen einer Darstellungsform in eine andere verknüpft oder mit dem Präsentieren der Lösung, also etwa der Ausgabe eines Programms. Aus der bisherigen Diskussion ergibt sich, dass der Hauptteil des Inhalts der Aufgabe dem Inhaltsbereich Algorithmen zugeordnet werden kann. Nebenaspekte beziehen sich auf die Inhaltsbereiche Automaten und Sprachen sowie Daten und Information. Von den Prozessbereichen ist hauptsächlich Implementierung und Modellierung relevant. Für die Lösung der „Bunten Reihe“-Aufgabe ist lediglich deskriptive Modellierung notwendig. Die Aufgabe ist genau umrissen. Lösungswege wurden von den Autoren der Aufgabe nicht vorgegeben. Zwar werden die Ein- und Ausgaben genau definiert, für die Verarbeitung gibt es jedoch keine Vorgaben. Es bietet sich zum Beispiel der Einsatz eines Backtracking-Algorithmus an, der Folgen findet und auf die Erfüllung der Regeln untersucht. Für die Prüfung der Zugehörigkeit einer Folge zur Lösungsmenge könnte ein deterministischer, endlicher Automat verwendet werden. Die Anzahl verschiedener Lösungsansätze scheint recht klein zu sein. 4 Vergleich mit der Aufgabe „Kleingeld“ Bei der Aufgabe „Kleingeld“ aus dem 24. Bundeswettbewerb 2005/ 2006 [BI] geht es darum, die Anzahl an Münzen im Portmonee zu minimieren. Dabei soll in der Teilaufgabe 1 ein Programm entwickelt werden, welches bei einer bestimmten „Startbelegung“ in der Geldbörse verschiedene Einkäufe und die Entwicklung der Anzahl an Münzen simuliert. Mit der in der Aufgabenstellung vorgegebenen Strategie, dass möglichst viele kleine Münzen bei der Bezahlung eingesetzt werden, damit man möglichst wenige zurückbekommt, soll eine Minimierung erreicht werden. In der - 85 - Teilaufgabe 2 soll die durchschnittliche Anzahl an Cent-Münzen in „ausreichend vielen“ Einkäufen simuliert werden (zu Beginn befinden sich keine Cent-Münzen im Portmonee). In der Teilaufgabe 3 soll nun eine bestimmte Münzart gefunden werden, die besonders selten genutzt wird, und es soll diskutiert werden, ob es sinnvoll ist, auf diese Münzart vollständig zu verzichten. Der Gegenstand der Aufgabe knüpft an die Alltagswelt der Teilnehmerinnen und Teilnehmer an und eine gute Strategie bei der Lösung könnte auch das reale Leben erleichtern. In der Teilaufgabe 1 geht es inhaltlich wiederum schwerpunktmäßig um den Inhaltsbereich Algorithmen. Die Inhaltsbereiche Daten und Information sowie Sprachen und Automaten sind wie in der „Bunte Reihe“-Aufgabe von geringer Bedeutung. Nicht angesprochen werden die Aspekte der Informatiksysteme sowie Informatik, Mensch und Gesellschaft. Bei den Prozessbereichen ist das Modellieren und Implementieren wichtig. Andere Prozessbereiche sind nachrangig. Die Teilaufgabe 2 stellt den Inhaltsbereich Daten und Information in den Mittelpunkt, der wichtigste Prozessbereich ist Darstellen und Interpretieren. Auch Begründen und Bewerten sowie Strukturieren und Vernetzen sind von Bedeutung. In der Teilaufgabe 3 wird wiederum ein anderer Weg gegangen. Dort sind Begründen und Bewerten sowie Darstellen und Interpretieren besonders wichtig. Eine Diskussion über das Weglassen bestimmter Münzarten erfordert Kompetenzen im Inhaltsbereich Daten und Information. Die Offenheit der drei Teilaufgaben ist unterschiedlich. Während die Teilaufgabe 1 die Lösungsstrategie bereits explizit vorgibt und nur noch eine Lösung zu implementieren ist, erfordert die Teilaufgabe 2 eigene Entscheidungen mit leicht normativem Charakter. Die Teilaufgabe 3 ist ebenfalls eher offen und hat leicht normativen Charakter. In der Teilaufgabe 2 ist der Lösungsweg implizit vorgegeben, in der Teilaufgabe 3 ist er nicht einmal angedeutet. Die beiden diskutierten Aufgaben zeigen, dass im Bundeswettbewerb Informatik unterschiedliche Aufgabentypen verwendet werden. Von reinen Programmieraufgaben, die größtenteils Kompetenzen in den Inhaltsbereichen Algorithmen sowie Daten und Information und im Prozessbereich Modellieren und Implementieren erfordern, bis hin zu Aufgaben, bei denen vor allem auch Entscheidungen getroffen, begründet und bewertet werden müssen oder bei denen Fähigkeiten und Fertigkeiten aus anderen Fachgebieten mit informatischen Inhalten und Methoden vernetzt werden. Im Folgenden wird untersucht, ob sich im Laufe der vergangenen Jahre die „Aufgabenkultur“ gewandelt hat und ob Aufgaben, die klassische Inhalte wie Algorithmen in den Mittelpunkt stellen, in vergleichbarer Weise in ihrer Bedeutung abgenommen haben, wie dies in den einheitlichen Prüfungsanforderungen Informatik in der Abiturprüfung der Kultusministerkonferenz aus dem Jahr 2004 im Vergleich zu 1989 deutlich wird [Fo08]. Weiterhin wird untersucht, ob sich die Offenheit der Aufgaben geändert hat. 5 Ergebnisse der Untersuchung In der ersten Runde des Bundeswettbewerbs Informatik werden fünf Aufgaben gestellt (nur 1994 waren es sechs Aufgaben). Bei der Einschätzung einer Aufgabe wurde jedem - 86 - Inhalts- und jedem Prozessbereich ein Wert zwischen 0 und 3 und jeder Dimension der Offenheit ein Wert zwischen 0 und 2 zugeordnet. In der Übersicht sind die Ergebnisse für jeweils fünf Jahre zusammengefasst. Diese Zusammenfassung hat sich als sinnvoll erwiesen, um Entwicklungen deutlich zu erkennen. Ein interessanter „Ausreißer“ aus dem Jahr 2000 wird in Abschnitt 5.2 diskutiert. Über den gesamten Zeitraum betrachtet, erkennt man generell, dass sich die Inhaltsbereiche in drei Gruppen teilen lassen. Die Inhaltsbereiche Daten und Information sowie Algorithmen sind in fast jeder Aufgabe von Bedeutung. Der Inhaltsbereich Automaten und Sprachen ist eher für spezielle Aufgaben wichtig und die Inhaltsbereiche Informatik, Mensch und Gesellschaft sowie Informatiksysteme sind selten gefragt. Dabei zeichnen sich Trends ab. 5.1 Inhaltsbereiche Daten und Information sowie Algorithmen Die beiden Inhaltsbereiche Daten und Information sowie Algorithmen haben auf hohem Niveau unterschiedliche Entwicklungen genommen. Dem Inhaltsbereich Algorithmen wurde in den meisten Aufgaben die Stufen 2 oder 3 zugeordnet. In den Jahren von 1985 bis 1989 dominierte die Stufe 3, in den beiden folgenden 5-Jahres-Zusammenfassungen gab es mehr Aufgaben der Stufe 2 als der Stufe 3 (14:10 und 15:8). In nur wenigen Aufgaben war der Inhaltsbereich Algorithmen von geringer Bedeutung. Nach dem Jahr 2000 wurden von den Autoren der Aufgaben wieder mehr Aufgaben gestellt, bei denen der Inhaltsbereich Algorithmen dominiert. In den letzten fünf Jahren gab es vermehrt Aufgaben, bei denen der Inhaltsbereich Algorithmen keine oder nur eine geringe Bedeutung hat. Trotzdem kann man sagen, dass der Inhaltsbereich von herausragender Wichtigkeit für die Aufgaben des Bundeswettbewerbs ist, auch wenn die Bedeutung im Vergleich zu den ersten Jahren leicht gesunken ist, was vor allem an der größere Anzahl von Aufgaben festzumachen ist, bei denen der Inhaltsbereich Algorithmen eine geringe Bedeutung hat. Auch der Inhaltsbereich Daten und Information hat große Bedeutung für den Bundeswettbewerb. Den meisten Aufgaben wurde im Inhaltsbereich Daten und Information die Stufe 2 zugeordnet, wobei es einige Aufgaben mit etwas geringerer oder größerer Bedeutung gab. In den Jahren von 2005 bis 2009 stieg dessen Bedeutung und die meisten Aufgaben wurden der Stufe 3 zugeordnet. Vor allem in den letzten fünf Jahren hat die Wichtigkeit des Inhaltsbereichs zugenommen. Im gleichen Zeitraum zeigte sich, dass der Inhaltsbereich Algorithmen in seiner Bedeutung abnahm. Ob dies ein dauerhafter Trend sein wird, bleibt abzuwarten. 5.2 Andere Inhaltsbereiche Der Inhaltsbereich Sprachen und Automaten hat in seiner Bedeutung abgenommen. Meist waren es einzelne Aufgaben, die Kompetenzen aus diesem Bereich erforderten, die nun seltener werden. - 87 - Dimension der Offenheit Algorithmen Sprachen und Automaten Informatiksysteme Informatik, Mensch, Gesellschaft Modellieren und Implementieren Begründen und Bewerten Strukturieren und Bewerten Anzahl der Wege Vorgabe der Wege Normativität 1985 1989 0 1 2 3 0 3 15 7 0 1 9 15 4 11 9 1 23 2 0 0 25 0 0 0 0 0 1 24 0 15 10 0 0 14 11 0 0 20 5 0 11 14 0 9 15 1 20 5 0 1990 1994 0 1 2 3 0 8 16 2 0 0 14 12 0 22 3 1 26 0 0 0 26 0 0 0 0 0 1 25 0 11 14 1 0 17 9 0 0 13 11 2 4 20 2 12 10 4 22 4 0 1995 1999 0 1 2 3 0 6 15 4 0 2 17 6 0 15 9 1 23 1 1 0 25 0 0 0 0 0 4 21 0 13 10 2 0 20 4 1 0 16 9 0 1 23 1 12 12 1 20 5 0 2000 2004 0 1 2 3 0 3 14 8 0 1 8 16 2 12 10 1 23 1 1 0 20 1 2 2 0 1 0 24 0 3 14 8 0 16 7 2 0 10 13 2 2 23 0 5 17 3 17 6 2 Darstellen und Interpretieren Information und Daten Kommunizieren und Kooperieren Prozessbereich Stufe Inhaltsbereich 0 0 4 13 0 1 13 23 23 0 0 0 0 1 5 9 0 1 2 3 15 4 25 17 8 1 2005 2009 7 5 3 2 0 1 12 10 11 0 4 4 2 17 14 0 0 1 22 10 0 10 3 Tabelle 2: Anzahl von Aufgaben, die innerhalb von fünf Jahren einer Stufe des jeweiligen Kriteriums zugeordnet wurden. - 88 - Wie am Beispiel der „Bunte Wimpel“-Aufgabe deutlich wurde, konnten in späteren Jahren vor allem Teile der Aufgaben mit Kompetenzen aus dem Inhaltsbereich Sprachen und Automaten gelöst werden. In Zahlen ausgedrückt, sank der Anteil der Aufgaben, denen Stufe 2 oder 3 zugeordnet wurde, leicht und in mehr Aufgaben spielte der Inhaltsbereich gar keine Rolle. Für den Inhaltsbereich Informatiksysteme ergibt sich eine geringe Bedeutung. So gab es über den gesamten Zeitraum verteilt vereinzelte Aufgaben, die aus dem Bereich der Computertechnik stammten. Diese waren aber stets über programmierte Softwaremodelle zu lösen. Der Bundeswettbewerb Informatik hat in der ersten Runde keinen oder nur einen geringen Bezug zu Fragen des Zusammenspiels von Soft-, Hardware und Netzen. In den letzten Jahren haben jedoch Fragen zur Interaktion von Rechnern zugenommen. Vielleicht könnten solche Aspekte in den nächsten Jahren für einen Bedeutungszuwachs des Inhaltsbereichs Informatiksysteme im Bundeswettbewerb sorgen. Fragen aus dem Bereich Informatik, Mensch und Gesellschaft wurden ebenfalls selten gestellt. In den letzten Jahren kommen sie jedoch häufiger vor. Interessant ist die Ausprägung im Jahr 2000, bei der in vielen Aufgaben Fragen über die Auswirkungen der Ergebnisse für die Gesellschaft oder das Individuum gestellt wurden. Dies ließ sich in den darauffolgenden Jahren aber nicht wieder beobachten. Stattdessen werden nur vereinzelt derartige Fragen gestellt. 5.3 Prozessbereiche Bei den Prozessbereichen wird zunächst die exponierte Stellung des Modellierens und Implementierens deutlich. Dieser Bereich spielt für den Bundeswettbewerb Informatik eine besondere Rolle und wird in fast allen Aufgaben thematisiert. Steigende Bedeutung erfahren die Prozessbereiche Begründen und Bewerten sowie Darstellen und Interpretieren. Der Prozessbereich Strukturieren und Vernetzen hat ebenfalls eine recht hohe Bedeutung. Der Prozessbereich Darstellen und Interpretieren ist eng mit dem Inhaltsbereich Daten und Information verknüpft. So lässt sich der Bedeutungszuwachs des Prozessbereichs durch den Zuwachs des Inhaltsbereichs miterklären (oder umgekehrt). Die zunehmende Wichtigkeit des Prozessbereichs Begründen und Bewerten lässt sich durch eine Öffnung der Aufgaben (siehe Abschnitt 5.4) und die Notwendigkeit der Begründung einzelner Modellierungsaspekte erklären. Wandlungen innerhalb des Prozessbereichs Modellieren und Implementieren lassen sich mit Hilfe der Daten in dieser Analyse nicht erkennen. Dafür müsste untersucht werden, wie sich das Verhältnis zwischen Implementierung und Modellierung wandelte. Es ist zu vermuten, dass die Modellierung in ihrer Bedeutung zunimmt, während die Bedeutung der Implementierung sinkt. Ein Indiz dafür könnte die zunehmende Offenheit der Aufgaben sein (siehe Abschnitt 2 und 5.4). - 89 - Aufgaben, für die keine Implementierung notwendig war, waren selten (dreimal 1994 und je einmal 1995, 1996, 2003, 2007 und 2008). Aufgaben, bei denen kein eigenes Modell bzw. die Umsetzung eines vorgegebenen Modells von Bedeutung waren, gab es nur zwei. Die Aufgabe Babbel aus dem Jahr 2003 befasst sich mit dem Problem der Übersetzung von einer natürlichen Sprache in eine andere und das Herausfinden von fundamentalen Übersetzungsproblemen. Im Jahr 2007 sollten Fragen zu Daten aus einem Diagramm gefunden und in zwei grafische Darstellungen überführt werden (Aufgabe 3 „Winddiagramme“). 5.4 Aufgabenoffenheit Die Offenheit der Aufgaben im Bundeswettbewerb hat sich aber im Laufe der 25 Jahre geändert. Während in den ersten 15 Jahren gerade das Modellieren in gleich vielen Aufgaben explizit wie implizit vorgegeben wurden, dominierten in den meisten Aufgaben ab dem Jahr 2000 implizite Vorgaben. Keine Vorgaben wurden insgesamt selten gemacht. Seit Anfang der 1990er Jahre nahm auch die Anzahl der möglichen Lösungswege zu. Normative Modellierung spielt erst ab dem Jahr 2003 eine größere Rolle. Festzustellen bleibt damit, dass die Aufgaben insgesamt in allen drei Teilaspekten (Anzahl der Lösungswege, Vorgabe der Lösungswege und Normativität) etwas offener geworden sind. Durch den Bedeutungszuwachs der Modellierung kann auch eine höhere Offenheit der Aufgaben erklärt werden, da beispielsweise vorgegebene Datenmodelle oder Algorithmen die Implementierung deutlich vorzeichnen, während unterschiedliche Datenstrukturen auch zu unterschiedlichen Implementierungen führen werden. Damit kann der Autor der Einschätzung von Wegener aus dem Jahr 1997 [We97] nicht zugestimmen, dass offene Fragestellungen in den ersten beiden Runden des Bundeswettbewerbs Informatik ausgeschlossen sind. Er begründete dies mit der Notwendigkeit einer knappen Formulierung und einer zum Teil standardisierten Auswertung der Lösungen. Es ist anzunehmen, dass sich die Begriffe von Offenheit bei Wegener und in diesem Artikel unterscheiden. Außerdem hat es in den Jahren nach 1997 weitere Wandlungen gegeben. 6 Fazit Bei der Durchsicht der insgesamt 126 Aufgaben ergab sich der Gesamteindruck, dass sich die Aufgaben des Bundeswettbewerbs Informatik von (umformulierten) klassischen Problemstellungen vor allem der theoretischen Informatik zu anwendungsnahen Problemen weiterentwickelt haben. Klassische algorithmische Probleme führten häufig zu hohen Anforderungen bei der Findung der passenden Implementierung, während die Modellierung teils durch die Aufgabenstellung schon vorgegeben war. Entsprechend standen Algorithmen und der Entwurf sowie die Implementierung von Datenstrukturen im Mittelpunkt. Die Entwicklung in Richtung Anwendungsnähe führte dazu, dass klassische Problemfelder nicht einfach adaptiert werden konnten und so ein höheres Maß an eigener Modellierungsleistung und komplexerer Adaption notwendig geworden ist. Im Zuge dessen wurden die Aufgaben auch offener. Neben wenigen Aufgaben, in denen in den letzten Jahren die Wechselwirkungen der Informatik mit Gesellschaft und - 90 - Individuum thematisiert wurde, nahm vor allem der Inhaltsbereich Daten und Information an Bedeutung zu. Bei den Prozessbereichen wurden dementsprechend Darstellen und Interpretieren sowie aufgrund der zunehmenden Offenheit auch das Begründen und Bewerten wichtiger, ohne dass jedoch der Bereich der Modellierung und Implementierung seine exponierte Stellung im Wettbewerb verloren hätte. Die Wandlungen im Bundeswettbewerb Informatik zeichnen zum Teil Entwicklungen der Fachdidaktik und des Informatikunterrichts nach (so z. B. zur Algorithmenorientierung). Trotzdem hat der Wettbewerb eine eigene Charakteristik, so dass auch nicht zu erwarten ist, dass sämtliche Trends aus dem Informatikunterricht oder der Unterrichtsforschung mitgegangen werden. Im Mittelpunkt stehen „knifflige“ und vergleichsweise anspruchsvolle Informatikprobleme, die mithilfe selbstentworfener Modelle und selbstgeschriebener Programme simuliert und gelöst werden sollen. Mit der ersten Runde des Bundeswettbewerbs sollen u. a. ein vielfältiger Einblick in die Informatik ermöglicht und Jugendliche für das Fach begeistert werden [Po05]. Ein vielfältiger Einblick in die Informatik gelingt vor allem auf der Ebene der Modellierung und Implementierung von Algorithmen und Programmen, die ein breites und in jüngerer Zeit auch recht anwendungsnahes Spektrum abdecken. Die Zuordnung von Aufgaben zu Kompetenzbereichen hat gezeigt, dass nicht alle Aspekte, die von den GI-Empfehlungen erfasst werden, gleichermaßen berücksichtigt werden. Insbesondere werden Themen aus den Inhaltsbereichen Informatik, Mensch und Gesellschaft sowie Informatiksysteme seltener aufgegriffen als die Inhaltsbereiche Algorithmen sowie Daten und Information. Es ist sicher spannend darüber zu diskutieren, ob alle Inhaltsbereiche in gleicher oder ähnlicher Weise in den Aufgaben des Bundeswettbewerbs Informatik repräsentiert sein sollten. Es könnte das Bild von Informatik bei einigen jungen Menschen verändert werden, wenn etwa Fragen über die Auswirkungen von Informatiksystemen auf Individuum und Gesellschaft als Bestandteil von Modellierungen und Reflektionen verstärkt in den Vordergrund gerückt werden würden. Andererseits hat der Bundeswettbewerb Informatik keinen allgemein bildenden Auftrag und richtet sich im Vergleich zu den GI-Empfehlungen nicht an alle Schülerinnen und Schüler. Daher sollte der Bundeswettbewerb Informatik möglicherweise die „ungewöhnliche Breite“ [GI08] des Fachs gar nicht abdecken, sondern ein eigenes Profil aufweisen. Eine Fokussierung auf bestimmte Inhaltsbereiche und damit verbunden knapp formulierbare Aufgabenstellungen erscheinen daher als möglich und sinnvoll. Durch die teils implizite Untergliederung der meisten Aufgaben in eine Modellierungsphase, die Reflexionen über ein bestimmtes Informatikproblem erfordert, und eine Implementierungsphase werden unterschiedliche Prozessbereiche angesprochen. Dies verdeutlicht, dass die Informatik sehr verschiedene methodische Kompetenzen zur Problemlösung anbietet und notwendig macht, was einen Teil ihrer Attraktivität ausmacht. Zusammenfassend lässt sich feststellen, dass der Bundeswettbewerb seinen eigenen Zielstellungen damit weitgehend gerecht wird. Aus dieser Untersuchung ergeben sich verschiedene Anschlussfragen. Interessant wäre eine zusätzliche Betrachtung der Aufgabenschwierigkeit. Die Aufgaben der zweiten und dritten Runde des Bundeswettbewerbs könnten ebenfalls analysiert werden. Für die Aufgaben aller Runden wäre weiterhin von Interesse, welche Intentionen die Mitglieder - 91 - des Aufgabenausschusses des Bundeswettbewerbs verfolgen und wie die Lösungen bewertet werden. Literaturverzeichnis [Ba96] Baumann, R.: Didaktik der Informatik, 2. Aufl., Klett, Stuttgart et. al, 1996. [Br09] Brichzin, P.; Embacher, K.; Hölzel, M.; Hörmann, S.l: Aufgabensammlungen auf dem Prüfstand. In: LOG IN, 29. Jg. (2009), Heft 154/ 155, S. 16-25. [BI] Bundeswettbewerb Informatik (Hrsg.): Der 4-28. Bundeswettbewerb Informatik. Das Aufgabenblatt. 1985-2009. [BI10] Bundeswettbewerb Informatik (Hrsg.): Über den BWInf. http://bwinf.de [zuletzt geprüft 18.03.10]. [Dö87] Dörner, D.: Problemlösen als Informationsverarbeitung. Kohlhammer Standards Psychologie, 3. Aufl., Kohlhammer, Stuttgart, 1987. [Fo08] Fothe, M.: Bildungsstandards Informatik für die Sekundarstufe II – Vorüberlegungen zur Entwicklung, in: Brinda, T. et al (Hrsg.): Didaktik der Informatik – Aktuelle Forschungsergebnisse. 5. Workshop der GI-Fachgruppe „Didaktik der Informatik“. 24.25.09.2008 an der Universität Erlangen-Nürnberg, 2008, S. 107-118. [GI08] Gesellschaft für Informatik (Hrsg.): Grundsätze und Standards für die Informatik in der Schule – Bildungsstandards Informatik für die Sekundarstufe I. Empfehlungen der Gesellschaft für Informatik e.V. vom 24. Januar 2008. In: LOG IN, 28. Jg. (2008), Heft 150/ 151, Beilage. [Hu07] Hubwieser, P.: Didaktik der Informatik, 3. Aufl., Springer Verlag, Berlin; Heidelberg; 2007. [Kl71] Klix, F.: Information und Verhalten. Huber, Bern 1971. [Po05] Pohl, W.: Informatik-Wettbewerbe in Deutschland – Eine Übersicht, in: LOG IN, 25. Jg. (2005), Heft 133, S. 10-22. [Sc09] Schlüter, K.: Eine Studie zu den Merkmalen der Aufgabenschwierigkeit am Beispiel eines Informatik-Schülerwettbewerbs. Erster Teil: Aufgabenklassifizierung, in: Koerber, B.: Zukunft braucht Herkunft: 25 Jahre "INFOS - Informatik und Schule", INFOS 2009, 13. GI-Fachtagung "Informatik und Schule", 21. bis 24. September 2009 an der Freien Universität Berlin, 2009, S. 181-192. [We97] Wegener, I.: Bundeswettbewerb Informatik – Die Aufgaben der Endrunde 1996 und 1997. In: LOG IN, 17. Jg. (1997), Heft 95, S. 29-34. [We00] Wellenreuther, M.: Quantitative Forschungsmethoden in der Erziehungswissenschaft. Eine Einführung, Juventa, Weinheim, 2000. - 92 - Automatisierte, prozessbegleitende Identifizierung der Problemlösestrategien Lernender unter Verwendung von Mustererkennungsmethoden Ulrich Kiesmüller Didaktik der Informatik Friedrich-Alexander-Universität Erlangen Nürnberg Martensstraße 3 91058 Erlangen [email protected] Abstract: Im Informatikunterricht eingesetzte Lern- und Programmierumgebungen geben den Benutzenden Feedback in Form von Systemmeldungen, die durch Programmfehler ausgelöst und gesteuert werden und oft nur technische Hinweise enthalten ohne Bezug zum Problemlöseprozess der Lernenden. Um diese Rückmeldungen nicht nur an das Faktenwissen der Lernenden, sondern auch an ihr prozedurales Wissen zu adaptieren, müssen deren Vorgehensweisen bei der Problemlösung automatisiert prozessbegleitend identifiziert werden. Dieser Artikel beschreibt einen Weg, dieses Ziel unter Verwendung von Mustererkennungsmethoden zu erreichen. Die in einer Studie von 65 Lernenden im Alter von 12 bis 13 Jahren erhobenen Daten werden verwendet, um ein auf verborgenen Markow-Modellen basierendes Klassifikationssystem zu trainieren. Dieses System wird integriert in die Programmierumgebung und ermöglicht somit die automatisierte Identifizierung der Vorgehensweise der Lernenden. In diesem Artikel werden die Funktionsweise der automatisierten prozessbegleitenden Identifizierung beschrieben und Ergebnisse aus den erhaltenen Daten diskutiert. 1 Motivation Informatiklehrkräfte setzen oft visuelle Programmierung unterstützende Umgebungen ein, wie zum Beispiel Scratch [Ma04] oder Kara [Re03]. In einigen Bundesländern (z. B. Bayern) werden Grundlagen der Algorithmik bereits in der 7. Jahrgangsstufe gelehrt. Während ihrer ersten Schritte im Bereich der Programmierung lösen Lernende kurze Aufgaben mit den eingesetzten Programmierumgebungen. Selbst wenn ihnen eine bestimmte Vorgehensweise zur Lösungsfindung gelehrt wurde, können bei den Lernenden verschiedene Problemlösestrategien beobachtet werden. Aus konstruktivistischer Sicht sollen die Lehrenden [Be98] das bestehende (prozedurale) Wissen der Lernenden nicht außer Acht lassen, auf die individuellen Vorgehensweisen der Lernenden eingehen und sie unter deren Berücksichtigung bei einer selbstständigen Problemlösung unterstützen. Im Sinne von [Dr04] ist die Gestaltung von glaubwürdigem motivationalem Feedback möglich, durch das bei den Lernenden Motivation erzeugt, gehalten oder gar gesteigert wird. - 93 - Dieser Artikel ist wie folgt aufgebaut. In Kapitel 2 werden Vorüberlegungen bezüglich Problemlösestrategien, Lern- und Programmierumgebung sowie Kategorisierung von Lerner-System-Interaktionen dargelegt. An die in Kapitel 3 folgende Beschreibung der bereits mit Automaten-Kara aufgenommenen Daten schließt sich ein kurzer Überblick über die beobachteten Problemlösestrategien an. Im Kapitel 4 wird die Mustererkennungsmethode beschrieben, die zur automatisierten, prozessbegleitenden (d. h. bereits während die Lernenden mit dem System interagieren) Identifizierung eingesetzt wird. Eine Analyse der Ergebnisse des Einsatzes der vorgestellten Methode und erste Schlussfolgerungen schließen sich im Kapitel 5 an. Abschluss bildet ein Ausblick auf zukünftige Arbeiten im Kapitel 6. 2 2.1 Vorüberlegungen Problemlösestrategien Problemlösen bedeutet aus psychologischer Sicht die Suche eines korrekten Weges durch den Problemraum, der sich zwischen einem (unerwünschten) Ausgangszustand und einem (erwünschten) Endzustand aufspannt [Ma92, CG85, NS72]. Wie in [Ki09] dargestellt, sind bei Lernenden während der Lösung der gestellten Aufgaben verschiedene Problemlösestrategien zu beobachten. Diese lassen sich aufteilen in die (vor-)strukturierten Methoden top down und bottom up sowie die Methoden hill climbing und trial and error, bei denen die Lernenden jeweils nur einen einzelnen Schritt der Lösung betrachten. Abbildung 1 zeigt die Grobstrukturierung des Gesamtproblems als Aufteilung in Teilprobleme, die innerhalb der Feinstrukturierung weiter in Unterprobleme zerlegt werden, bevor sich letztendlich ohne weitere Verzweigungen die Teillösungen anschließen. Hierbei ergibt sich eine baumähnliche Struktur, die von Lernenden, die eine top down-Strategie anwenden, Ebene für Ebene wie bei einer Breitensuche abgearbeitet wird (Pfeile in Abb. 1). Somit ist eine (ebenenweise) sukzessive Annäherung an die Gesamtlösung gewährleistet. Bei der bottom up-Strategie wird eine Tiefensuche durchgeführt (Abb. 2). Die Gesamtlö- Abbildung 1: Überblick über den Lösungsablauf bei der top down-Strategie - 94 - Abbildung 2: Überblick über den Lösungsablauf bei der bottom up-Strategie sung entsteht, wenn das letzte Teilproblem vollständig gelöst ist. Lernende mit einer hill climbing-Strategie strukturieren weder das gesamte noch die Teilprobleme, haben aber eine klare Vorstellung von der erwünschten Arbeitsweise des Programms. Sie kontrollieren ihre Lösungsversuche aktiv durch wiederholte Programmausführungen. Hierfür benötigen sie nicht unbedingt Systemfehlermeldungen der Programmierumgebung. Sie brechen den Programmlauf bei unerwartetem Programmverhalten häufig ab ( Schleifen“ in Abb. 3). ” Ihr Fokus liegt jeweils nur auf einem Schritt, dessen optimaler Lösung und der Suche nach dem sinnvollsten nächsten Schritt. Durch ihre klare Vorstellungen vom Programmablauf, ihre Suche nach dem jeweilig nächsten Schritt (Abb. 3: durchgezogene Pfeile – gestrichelt: alternative Fortsetzungen) und anschließend dessen (optimierter) Lösung werden sie jeden zur Lösung notwendigen Schritt durchlaufen und sich sukzessive in allen Teilzweigen an die Teillösungen und somit an die Gesamtlösung der Aufgabenstellung annähern. Im Gegensatz zu allen bisher beschriebenen Vorgehensweisen liegt bei der trial and errorStrategie (Abb. 4) keine systematische Annäherung an die Teillösungen vor. Die Gesamtlösung entsteht (wenn überhaupt) eher zufällig“. Die Aufmerksamkeit der Lernenden ” liegt hier wiederum jeweils auf einem einzelnen Schritt. Sie warten bei dieser Vorgehensweise bei Testläufen stets so lange, bis sie eine Systemfehlermeldung erhalten und versuchen jeweils anschließend, den dafür ursächlichen Fehler zu beheben. In dieser Gruppe von Lernenden tritt häufig die typische unerwünschte Situationen auf, dass die Lernen- Abbildung 3: Überblick über den Lösungsablauf bei der hill climbing-Strategie - 95 - den behaupten, die Aufgabe gelöst zu haben (weil keine Systemfehlermeldungen mehr auftreten), aber im Sinne der Aufgabenstellung keine Lösung vorliegt. Abbildung 4: Überblick über den Lösungsablauf bei der trial and error-Strategie 2.2 Lern- und Programmierumgebung In der Informatik ist Kreativität ein wichtiger Faktor, um bei Lernenden Interesse zu wecken, Motivation zu erzeugen und zu erhalten [Ro07]. In [Sh07] finden sich als Kriterien für kreativitätsfördernde Software u. a. Unterstützung hilfreichen Feedbacks, Zulassen straffreien Experimentierens sowie visuellen Programmierens und Erlauben des schrittweisen Lösens der gestellten Aufgaben. Diese Bedingungen werden von Umgebungen wie Kara in seiner automatenbasierten Version [Re03] erfüllt. Eine typische Aufgabe ( Kara ” und die Blätter“), mit der die Lernenden (auch bei den unten beschriebenen Untersuchungen) konfrontiert werden, ist es, Kara auf seinem Weg zu einem Baum, der sich geradlinig vor ihm befindet, ein Muster aus Kleeblättern invertieren zu lassen. Das zugehörige Programm muss unter Verwendung der Sensoren des Käfers mittels endlicher Automaten modelliert werden. Bei den hier beschriebenen Studien wurden die Lerner-SystemInteraktionen bei Automaten-Kara protokolliert und deren zeitliche Abfolge ausgewertet. 2.3 Kategorisierung der Lerner-System-Interaktionen Bei den im Rahmen des hier beschriebenen Forschungsprojekts durchgeführten Studien wird nur eine Auswahl von Lerner-System-Interaktionen (LSI) aufgezeichnet, nämlich für den Problemlöseprozess relevante (Tab.1). Wie in [Ki09] erläutert, wird die Strukturierung des Problems als solche durch die LSI Bearbeitung und Änderung des Automaten“ der ” Kat. 0 zugeordnet. Die Feinstrukturierung des Problems in verschiedene Teilprobleme ist gleichbedeutend mit den LSI Erzeugung“ und Bearbeitung bedingter Verzweigungen“ ” ” (Kat. 1, 2, und 3). Wiederholungen, Verzweigungen und Sequenzen von Befehlssequenzen rangieren zwischen Feinstrukturierung und Lösung eines Teilproblems. Sie werden durch die Bearbeitung von Transitionen umgesetzt. Die Lösung eines Teilproblems wird repräsentiert durch die Bearbeitung von Sequenzen (Kat. 4). Zusätzliche LSI sind Programmausführungen ( play“, Kat. 5) zur Überprüfung der Korrektheit von Programmen, ” sowie deren Abbruch ( stop“, Kat. 6). Kat. 7 schließlich fasst alle Systemfehlermeldungen ” zusammen, so dass sich insgesamt acht Kategorien von LSI ergeben. - 96 - Kat. 0 1 2 3 LSI STATE ADDED STATE REMOVED TRANSITION TO CHANGED TRANSITION ADDED TRANSITION REMOVED TRANSITION INPUT CHANGED STATE SENSORS SET Kat. 4 5 6 7 LSI TRANSITION COMMAND ADDED TRANSITION COMMAND REMOVED PLAYING STOPPED AMBIGUOUS TRANSITION EXCEPTION COMMAND EXCEPTION NO TRANSITION EXCEPTION NO START STATE EXCEPTION Tabelle 1: Kategorisierung und Gruppierung der relevanten Lerner-System-Interaktionen (LSI). 3 3.1 Untersuchungsdaten beobachtete individuelle Vorgehensweisen Die oben eingeführte Automaten-Kara-Software wurde durch ein Modul erweitert, das alle LSI protokolliert und diese Daten entweder in einer Datei speichert oder direkt weiter verwendet (Kap. 4.3, Abb. 12). Die bei an zwei bayerischen Gymnasien durchgeführten Studien aufgenommenen Daten [Ki09] wurden als Ausgangsdaten für die hier beschriebenen Untersuchungen verwendet. Aus 188 Einzelsitzungen (je eine Aufgabe pro Lernendem) ergaben sich ca. 13000 protokollierte lösungsrelevante LSI. Unter Verwendung der Protokoll-Dateien, automatisch protokollierten Bildschirmaufnahmen und zusätzlichen mittels der Methode des lauten Denkens“ und Interviews erhobenen Daten konnten die Vor” gehensweisen der Lernenden in den einzelnen Sitzungen identifiziert werden. Wie sich diese bei einer Aufgabenlösung mit Automaten-Kara darstellen, wird nun beschrieben. Top down – Zuerst wird das Problem als Ganzes strukturiert. Hierbei fügen die Lernenden Zustände und Teilzweige (Bild 1 und 2 in Abbildung 5) hinzu und bearbeiten diese. Anschließend stellen sie Karas Sensoren ein (Bild 3 in Abbildung 5), was einer Feinstrukturierung des Problems entspricht. Abschließend ergänzen sie die Befehle (Bild 4 in Abbildung 5), um alle Teilprobleme und damit die gestellte Aufgabe insgesamt zu lösen. Bottom up – Die Lernenden erzeugen und bearbeiten zuerst nur einen Teilzweig, in den sie anschließend die Befehle einfügen, um dieses Teilproblem vor der Bearbeitung des nächsten Teilzweiges zu lösen (Bild 1 in Abbildung 6). Diese Schritte werden so oft wie- Abbildung 5: Screenshot-Folge (Ausschnitt) einer top down-Vorgehensweise - 97 - Abbildung 6: Screenshot-Folge (Ausschnitt) einer bottom up-Vorgehensweise derholt (Bild 2 und 3 in Abbildung 6) bis das letzte Teilproblem (nicht mehr in Abbildung 6 enthalten) und somit die gesamte gestellte Aufgabe gelöst ist. Hill climbing – Die Lernenden konzentrieren sich jeweils auf einen einzelnen Programmschritt. Sie haben eine klare Vorstellung vom gewünschten Programmablauf und starten die Ausführung, um den aktuell von ihnen bearbeiteten Programmschritt zu überprüfen. Diese brechen sie sofort ab, wenn sie erkennen können, ob das Programm an dieser Stelle korrekt läuft oder nicht (z. B. viermaliger Programmlauf zwischen Bild 2 und 3 in Abbildung 7). Gegebenenfalls korrigieren sie anschließend ihre Fehler (in der zu gehörigen log-Datei zwischen Bild 2 und 3 vor erneuter Korrektheitsprüfung durch Programmtestlauf) oder suchen nach dem nächsten zu bearbeitenden Schritt. Diese Prozedur wird solange wiederholt bis die Gesamtlösung der gestellten Aufgabe erreicht wurde. In manchen Fällen kommen die Lernenden nicht dazu (wie z. B. zwischen Bild 3 und 4 in Abbildung 7) den Programmlauf wegen eines unerwünschten Effekts selbst abzubrechen, weil sofort im ersten Schritt eine Systemfehlermeldung auftritt. Auf diese reagieren sie wie oben beschrieben mit der Verbesserung und erneuten Überprüfung des aktuellen Programmschrittes. Trial and error – Auch hier konzentrieren sich die Lernenden nur auf einen einzelnen Programmschritt und führen nach jedem ihrer Programmier- oder Verbesserungsschritte jeweils das Programm aus. Im Gegensatz zur gerade beschriebenen Vorgehensweise machen sie sich vorher keine klare Vorstellung vom erwünschten Programmablauf und brechen diesen selbst ab, sondern warten vielmehr bis bzw. ob das System den Programmlauf mit einer Fehlermeldung abbricht. Den gemeldeten Fehler versuchen sie zu korrigieren Abbildung 7: Screenshot-Folge (Ausschnitt) einer hill climbing-Vorgehensweise - 98 - und wiederholen den beschriebenen Prozess, um sich der korrekten Lösung anzunähern. Zwischen den Bildern 3, 4 und 5 sowie 6 und 7 der Abbildung 8 werden jeweils Fehlermeldungen vom System ausgegeben. Auch direkt nach der Aufnahme des Screenshots 8 wird der Lernende mit einer Systemrückmeldung konfrontiert. Im dargestellten Fall liegt sicher nicht die trial and error-Variante des systematischen Ausprobierens aller Möglichkeiten vor, denn die vom Lernenden jeweils geänderten Programmschritte sind, wie in den logDateien erkennbar, meist nicht diejenigen, an denen sich die Fehlerstelle befindet. Für den Lernenden wird es somit sehr schwer, sich an eine korrekte Lösung anzunähern. Abbildung 8: Screenshot-Folge (Ausschnitt) einer trial and error-Vorgehensweise 3.2 Datenaufbereitung In den Protokoll-Dateien wurden bei der manuellen Aufbereitung alle Vorkommen der die oben beschriebenen Vorgehensweisen repräsentierenden Muster mit XML-ähnlichen Markierungen versehen. Abbildung 9 zeigt den Auszug aus einer log-Datei mit einem markierten Muster der bottom up-Vorgehensweise. Die weiteren zu entnehmenden Daten sind Zeitstempel, Bezeichnung der gestellten Aufgabe und jeweils gerade durchgeführte LSI. Um eine Vollständigkeit der Labelung zu erreichen werden alle (Sequenzen von) LSI, die keiner der vier aufgeführten Problemlösestrategien zugeordnet werden können, als unidentifiziert“-Muster markiert. In einem nächsten Schritt werden anhand der Markie” <HMMBU> 12:04:43 Kara und... (leicht) 12:04:43 Kara und... (leicht) 12:04:44 Kara und... (leicht) 12:04:45 Kara und... (leicht) 12:04:49 Kara und... (leicht) </HMMBU> TRANS TRANS TRANS TRANS TRANS ADDED INPUT CHANGED INPUT CHANGED INPUT CHANGED COMMAND ADD Abbildung 9: Auftreten eines XML-ähnlich markierten bottom up-Musters in einer log-Datei - 99 - 2; 3; 3; 3; 3; 3; 4; 4; 4; 4; 4; 0; 2; 3; 3; 3; 4; Abbildung 10: Beispielssequenzen von LSI für das bottom up-Muster rungen und der LSI-Kodierung und -Gruppierung (Tab. 1) die Daten aus den log-Dateien von einem speziell dafür entwickelten Softwaremodul in Sequenzen von LSI-Kodierungen umgewandelt. Dies ist notwendige Voraussetzung für die Kapitel 4 beschriebene automatisierte Identifizierung der Muster. Abbildung 10 zeigt drei Instanzen des bottom up-Musters mit verschiedener Länge und ähnlicher, aber an Einzelstellen unterschiedlicher Struktur. 3.3 Statistische Ergebnisse Erstes Resultat ist die Möglichkeit, eine LSI-Sequenz einer von vier Problemlösestrategien oder dem unidentifiziert“-Muster zuzuordnen. Des Weiteren ist bemerkenswert, dass Ler” nende im Laufe der Lösungserstellung für eine Aufgabe gelegentlich die Vorgehensweise wechseln und im Laufe der Zeit Kennzeichen verschiedener Problemlösetypen aufzeigen. In [FS88] wird hierzu erläutert, dass es grundlegende Problemlösetypen gibt, aber bei Lernenden unterschiedliche individuelle Ausprägungen davon beobachtbar sind. Für die hier beschriebenen Studien bedeutet dies, dass in der Chronologie der LSI eines Lernenden bei der Lösung einer Aufgabe verschiedene Vorgehensmuster identifiziert werden können. Die Wahrscheinlichkeit, zu welcher Vorgehensweise der Lernende jeweils wechselt, ist variabel. In Tabelle 2 sind als Wahrscheinlichkeiten für jeden möglichen Wechsel zwischen zwei Mustern die relativen Häufigkeiten, die sich aus den aufgenommenen Daten ergaben, aufgeführt. Das UI-Muster muss hierbei separat betrachtet werden, da es üblicherweise als Übergang zwischen zwei Vorgehensmustern auftritt. Bemerkenswert ist, dass Lernende, deren Chronologie ein zu einer bestimmten Problemlösestrategie gehörendes Muster enthält, mit sehr hoher Wahrscheinlichkeit dieses Vorgehensmuster mehr als einmal zeigen (Diagonalenwerte in Tab. 2) – mit Ausnahme des top down-Musters, das nicht wiederholt, sondern oft gewechselt wird zu bottom up (näheres dazu in Kap. 5). Zumindest wenn Lernende mit einem neuen Lösungsversuch beginnen, verwenden sie wieder die selbe Strategie wie beim ersten Ansatz, was auf die Existenz einer individuell bevorzugten Strategie hindeutet. start TD BU HC TE UI TD 0.127 0.017 0.016 0.011 0.003 0.007 BU 0.530 0.414 0.518 0.156 0.117 0.094 HC 0.052 0.103 0.069 0.218 0.075 0.169 TE 0.030 0.172 0.153 0.117 0.482 0.135 UI 0.261 0.275 0.216 0.413 0.270 0.397 Tabelle 2: Transitionsmatrix zwischen Vorgehensmustern (Transition von Reihe zu Spalte) – TD: top down, BU: bottom up, HC: hill climbing, TE: trial and error, UI: unidentifiziert - 100 - 4 Methode 4.1 Einführung Die Analyse und manuelle Labelung der Daten bestätigt die Existenz der vier Strategien top down, bottom up, hill climbing und trial and error, die durch LSI-Sequenzen, in denen die Kategorien mit den Ziffern 0 bis 7 kodiert werden, dargestellt werden können. Um auch solche LSI-Sequenzen weiter verarbeiten zu können, die keiner dieser Strategien zugeordnet werden können, wird ein Ausschuss-Muster“ eingeführt. Die automatisier” te Identifizierung der von den Lernenden eingesetzten Problemlösestrategien in den LSIChronologien besitzt viele Gemeinsamkeiten zu im Bereich der Mustererkennung wohl bekannten Problemen – insbesondere zur automatischen Spracherkennung. Dort muss der Computer die Laute des Sprechenden erkennen, hier sind dies die von den Lernenden eingesetzten Strategien. In der Spracherkennung stellen Lautäußerungen die Eingangsdaten dar, hier werden die beobachteten LSI-Sequenzen verwendet. Ähnlich zum oben erwähnten unidentifiziert-Muster setzt die Spracherkennung eine Klasse Geräusch“ ein. ” 4.2 Einsatz verborgener Markow-Modelle Im Gegensatz zum starren Mustervergleich berücksichtigt ein erfolgreiches Modell auch Variationen in beobachteten Sequenzen. Dies ist in der Spracherkennung z. B. beim Sprecherwechsel notwendig; bei der Identifizierung von Problemlösestrategien können ähnliche, aber trotzdem verschiedene LSI-Sequenzen der selben Strategie zugeordnet sein. Um dies zu bewältigen, hat sich in der Mustererkennung die Verwendung von Automaten, die ihre Zustände nach einer Wahrscheinlichkeitsverteilung ändern, bewährt. Die weiteste Verbreitung hierbei haben verborgene Markow-Modelle (hidden Markov models – HMM) [Ch67], mit denen zeitliche statistische Abhängigkeiten modelliert werden. Im Gegensatz zum regulären Automaten, der für jedes Eingabesymbol festgelegte Transitionen besitzt, sind die Übergänge im HMM abhängig von der Übergangswahrscheinlichkeit aij von Zustand i zu Zustand j und den Ausgabewahrscheinlichkeiten bj (Ot ) dafür, dass das Symbol Ot im Zustand j ausgegeben wird (Abb. 11). Zusätzlich kann das Modell Startwahrscheinlichkeiten statt eines definierten Startzustandes besitzen. Nach Vorgabe der Parameter und einer Beobachtungssequenz wird die Wahrscheinlichkeit berechnet, dass die Abbildung 11: Links-Rechts-HMM (Übergangs- (a) und Ausgabewahrscheinlichkeiten (b(·)) - 101 - Beobachtung gerade durch dieses Modell erzeugt wurde. Das Training der Modelle, insbesondere die Abschätzung der Übergangs- und Ausgabewahrscheinlichkeiten für ein bestimmtes Muster, wird mit Hilfe des iterativen Baum-Welch-Algorithmus [Ba70] durchgeführt. Für vorgegebene Trainingsfälle (bestimmten Problemlösestrategien zugeordnete LSI-Sequenzen) werden die Parameterwerte schrittweise verbessert, so dass die Wahrscheinlichkeit gesteigert wird, dass das Model genau diesen Fall generiert. Ähnlich wie es bei der Spracherkennung für jedes Wort und Geräusch“ ein Modell gibt, wird hier für ” das unidentifiziert“-Muster sowie alle vier Vorgehensmuster je ein Modell benötigt. Der ” Findungsprozess einer Folge von HMM in einer Beobachtungssequenz wird Dekodierung genannt. Zuerst wird nach der HMM-Folge gesucht, die am wahrscheinlichsten zur gesamten LSI-Sequenz passt. Dieses Problem wird mit dem auf dynamischer Programmierung basierenden Viterbi-Algorithmus [Vi67] gelöst, der aus einer Beobachtungssequenz und gegebenen HMM die wahrscheinlichste Zustandsfolge errechnet. Zur Berücksichtigung der zeitlichen Struktur der Problemlösestrategien werden hier nur sogenannte reine LinksRechts-Modelle (d. h. aij = 0 für i > j innerhalb der Strategiemodelle (Abb. 11)) zugelassen. Zur Dekodierung werden die fünf Modelle zu einem großen HMM kombiniert, wobei hier zusätzliche Übergangswahrscheinlichkeiten am Beginn und Ende jedes Vorgehensmodells eingefügt werden, um mittels der Eingangswahrscheinlichkeiten zu ermöglichen, dass die LSI-Folge mit jedem der Vorgehensmuster beginnen kann. Alle Wahrscheinlichkeiten wurden aus den in Tabelle 2 aufgeführten relativen Häufigkeiten als Initialwerten automatisch errechnet. Für die LSI-Sequenzen errechnet der Viterbi-Algorithmus unter Verwendung des kombinierten HMM diejenige Sequenz von Vorgehensmustern, die am wahrscheinlichsten die gegebene LSI-Sequenz erzeugt. Diese Folgen von Vorgehensmustern lassen die von den Lernenden eingesetzte Problemlösestrategie erkennen. 4.3 Identifizierungsmodul Die gesamte Softwarearchitektur wird in Abbildung 12 dargestellt. Die Programmierumgebung Automaten-Kara wird erweitert durch das TrackingKara-Modul, welches alle Interaktionen des Hauptprogramms unter Ausnutzung des Beobachtermusters protokolliert Abbildung 12: Softwarearchitektur einschließlich Automaten-Kara, TrackingKara und IdentiKara - 102 - und sie an das ebenso integrierte IdentiKara-Modul weiterleitet. Dieses verwendet die Daten einmalig zum Training der HMM und während des anschließenden Einsatzes zur Bestimmung der aktuellen (und bisher eingesetzten) Problemlösestrategie(n). 5 Ergebnisse und Schlussfolgerungen Die eingesetzten Mustererkennungsmethoden erlauben die automatisierte, prozessbegleitende Identifizierung der Problemlösestrategien von Lernenden. Nicht nur individuelle Vorgehensmuster sondern auch deren Ausprägungen (LSI-Sequenzen), die typisch sind für die jeweils eingesetzten Problemlösestrategien, können identifiziert werden (Kap. 3.2). Die Wiederholung des top down-Musters in nur 1.7% aller Fälle (Tab. 2) erklärt sich durch einen Vergleich der Musterstrukturen. Alle anderen Muster beschreiben einzelne Schritte des Lösungsprozesses, von denen bis zur Gesamtlösung jeweils mehrere benötigt werden. Die top down-Strategie dagegen muss dazu typischer Weise nur einmal eingesetzt werden. Die hohe Wahrscheinlichkeit (41.4%) für den Wechsel von top down zu bottom up bestätigt die Tatsache, dass diese Strategie selbst von Programmierexperten nur sehr schwer konsequent beibehalten werden kann [Ho90]. Ein weiteres Resultat ist, dass die meisten der untersuchten Lernenden im Alter von 12 bis 13 Jahren die bottom up-Strategie bevorzugen. Zur Erstellung von individualisierten Systemrückmeldungen wird außer den automatisiert identifizierten Problemlösestrategien auch die jeweilige Lösungsqualität berücksichtigt, die mit einem in die Untersuchungssoftware eingebetteten Assessment-Modul bestimmt werden kann. Wie in [Dr04] dargestellt, kann durch die Gestaltung von Rückmeldungen als geeignete Kombination von personen-, verhaltens- und leistungsbezogenem Feedback die Motivation der Lernenden gefördert werden. Wird z. B. bei einem Lernenden während der Lösung zu Kara und die Blätter“ die bottom up-Strategie identifiziert und es tritt ” bei einem Programmtestlauf nach der Erstellung des vorletzten Teilzweiges ein Fehler auf (angenommen: Vertauschung der Befehle Schritt“ und Blatt aufheben“), so könnte eine ” ” Fehlermeldung lauten: Du hast Dein Programm gut strukturiert. Es fehlt Dir nur noch ein ” Teilzweig. Im aktuellen Zweig versucht Kara ein Blatt von einem Feld nehmen, auf dem keines liegt.“ Durch die Berücksichtigung der Vorgehensweise des Lernenden liegt der Fokus des Feedback dort, wo auch die Aufmerksamkeit des Lernenden gebündelt wird, er wird individuell angesprochen, motiviert und erhält Hinweise zur Lösungsfortsetzung. Der letzte Rückmeldungsteil ist eine Umformulierung der bisherigen technischen Meldung. Für alle Kombinationen von erreichter Qualität und eingesetzter Vorgehensweise wird im hier vorgestellten Fall je eine individualisierte Meldung bereitgestellt, die die Lernenden nicht nur im Fall eines Fehlers, sondern auch bei Bedarf auf Anforderung, erhalten können. Durch die Anpassung an die Vorgehensweise der Lernenden, spricht sie sie besser an als rein technische Meldungen und kann ihre Motivation halten oder gar steigern. Für die Anwendung mit anderen Programmierumgebungen (z. B. auch aus dem Bereich der imperativen Programmierung) muss die Auswahl der relevanten LSI (Kap. 2.3) adaptiert werden. Eine vielversprechende Möglichkeit stellt hierzu die Verwendung der algorithmischen Kontrollstrukturen Sequenz, Wiederholung, bedingte Verzweigung dar. Zusätzlich werden die Programmausführungen sowie deren Abbruch und ggf. Systemfehlermeldungen protokolliert. Die Kategorien bleiben ebenso unverändert wie die HMM und insbesondere die - 103 - eingesetzten Mustererkennungsalgorithmen. Lediglich müssen die Modelle einmalig neu trainiert (Kap. 4) und für das automatische Assessment die Testfälle neu gestaltet werden. 6 Ausblick In den nächsten Schritten werden die individualisierten Systemrückmeldungen (Kap. 5) kreiert und in die Software integriert. Die Programmierumgebung wird in diesem Zug so erweitert, dass Systemmeldungen von den Lernenden auch auf Anforderung erhalten werden können. Des Weiteren wird das Identifizierungsmodul angepasst an Programmierumgebungen, bei denen Programmbausteine per drag-and-drop von den Lernenden zu einem Gesamtprogramm zusammengestellt werden können (z. B. Scratch – [Ma04]). Literatur [Ba70] [Be98] [CG85] [Ch67] [Dr04] [FS88] [Ho90] [Ki09] [Ma04] [Ma92] [NS72] [Re03] [Ro07] [Sh07] [Vi67] Baum, L. et al.: A maximization technique occurring in the statistical analysis of probabilistic functions of markov chains. Ann. Math. Statist., 41:164-171, 1970. Ben-Ari, M.: Constructivism in computer science education. SIGCSE Bull. 30, 1 (Mar. 1998), 257-261, 1998. Chi, M. T. H.; Glaser, R.: Problem solving ability. In Human Abilities: An InformationProcessing Approach. W. H. Freeman & Co, San Francisco, CA. 227-257, 1985. Chung, K.: Markov Chains with Stationary Transition Probabilities. Springer, Berlin, 1967. Dresel, M.: Motivationsförderung im schulischen Kontext. Diss., München, 2000 (Münchener Universitätsschriften) – Hogrefe-Verlag für Psychologie, Göttingen, 2004. Felder, R. M.; Silverman, L. K.: Learning styles and teaching styles in engineering education. Engineering Education, 78(7), 674-681, 1988. Hoc, J.-M.: Psychology of programming. Computers and people series. Academic, London, 1990. Kiesmüller, U.: Diagnosing Learners’ Problem Solving Strategies Using Learning Environments with Algorithmic Problems in Secondary Education. In: Transactions of Computing Education, 9(3), ACM-Press, New York, NY, USA, 1-26, 2009. Maloney, J. et al.: Scratch: A Sneak Preview. In Second International Conference on Creating, Connecting and Collaborating through Computing. (Keihanna-Plaza, Kyoto, Japan, January 29-30, 2004) C5’04. IEEE Computer Society, Los Alamitos, CA, 104-109, 2004. Mayer, R. E.: Thinking, problem solving, cognition (2nd edition). W. H. Freeman and Company, New York, NY, 1992. Newell, A.; Simon, H. A.: Human Problem Solving. Prentice-Hall, Englewood Cliffs, NJ, 1972. Reichert, R.: Theory of Computation as a Vehicle for Teaching Fundamental Concepts of Computer Science. Doctoral Thesis. No. 15035. ETH Zurich, 2003. Romeike, R.: Kreativität im Informatikunterricht. Diss., Universität Potsdam, 2008. Shneiderman, B.: Creativity Support Tools: Accelerating Discovery and Innovation. Commun. ACM, 50(12):20-32, 2007. Viterbi, A.: Error Bounds for Convolutional Codes and an Asymptotically Optimum Decoding Algorithm. IEEE Transactions on Information Theory, 13:260-269, 1967. - 104 - Teil 3 Diskussionspapiere Scratch2Greenfoot – Eine kreative Einführung in die Programmierung mit Scratch und Greenfoot Ralf Romeike Institut für Mathematik und Informatik Pädagogische Hochschule Schwäbisch Gmünd Oberbettringer Str. 200 73525 Schwäbisch Gmünd [email protected] Abstract: Eine Einführung in die Programmierung für Lehramtsstudierende muss auch besondere Ziele berücksichtigen: Sie sollte eine positive Einstellung zum Programmieren vermitteln und Ideen für den eigenen Unterricht liefern. Scratch2Greenfoot ermöglicht eine sanfte Progression von Scratch zu Greenfoot, während die Studierenden frühe Erfolge erzielen und Programmieren als kreatives Gestalten wahrnehmen. Eine erste Erprobung mit Studierenden für das Haupt- und Realschullehramt verlief erfolgreich. 1 Einleitung Die Vermittlung grundlegender Progammierkenntnisse hat sich in der Informatikdidaktik als eine große Herausforderung erwiesen. Falsche Vorstellungen, Ängste und mangelnde Vorkenntnisse stellen regelmäßig Probleme dar, die nicht nur im „klassischen“ Informatikstudium, sondern oft noch gravierender in der Lehrerbildung auftreten: Lehrveranstaltungen zur Programmierung zählen zu den schwierigsten und weisen hohe Durchfallquoten auf. Damit können sie dafür mitverantwortlich gemacht werden, dass mancherorts über 50% der Lehramtsstudierenden ihr Informatikstudium innerhalb der ersten zwei Studienjahre wieder abbrechen (vgl. [RS06]). Für angehende Informatiklehrer ist dieser, oft erste, Eindruck vom Programmieren besonders problematisch, sollen sie doch später selbst mit möglichst positiver Einstellung das Thema unterrichten. Zusätzlich sind Studienabbrüche hinsichtlich der ohnehin geringen Studierendenzahlen für das Lehramt Informatik grundsätzlich problematisch. Die häufig im Rahmen des „klassischen“ Informatikstudiums angebotenen und von Lehramtsstudierenden mitbelegten Lehrveranstaltungen führen überdies dazu, dass sich Studierende mit unterschiedlichen Zielen und damit auch Bedürfnissen in einer Lehrveranstaltung befinden. Insbesondere den Zielen und Bedürfnissen der Lehramtsstudierenden wird hierbei regelmäßig nicht Rechnung getragen. An der hiesigen Hochschule hatten wir im WS 2009/10 die Möglichkeit, eine eigenständige Lehrveranstaltung zur Programmierung für Studierende des Haupt- und Realschullehramts zu konzipieren und anzubieten. Die zugrunde liegenden Überlegungen, Materialien und Erfahrungen werden im Folgenden dargestellt. In Kapitel 2 werden die Hintergründe und Bedürfnisse der Studierenden analysiert und damit die inhaltsübergreifenden Ziele der Lehrveranstaltung - 107 - präzisiert. In Kapitel 3 werden bekannte Forschungsergebnisse zur Problematik diskutiert. Kapitel 4 stellt gängige Ansätze zur Einführung in die Programmierung in Schule und Studium gegenüber, aus welchen ein Ansatz entwickelt wird, wie mit Hilfe eines kreativen Zugangs und der Erstellung von Animationen und Spielen die Studierenden einen motivierten kreativen Einstieg in die Programmierung erfahren (Kapitel 5). 2 Ziele und Probleme der Programmierausbildung im LA-Studium Ob Programmieren in der Schule unterrichtet werden sollte, ist Bestandteil teilweise kontroverser Diskussionen (vgl. z. B. [GH10]). Es kann allerdings festgestellt werden, dass eine Umsetzung der GI-Empfehlungen, vor allem im Bereich Algorithmen, ohne Programmieren nicht sinnvoll möglich ist. Die Umstände und Ziele dabei haben sich in den letzten Jahren deutlich geändert. Kinder wachsen heute in einer von Computern geprägten Welt auf und werden deshalb auch als „Digital-Natives“ bezeichnet. Entsprechend sollte der Computer vermittelt werden als Medium des persönlichen Ausdrucks und als Werkzeug, das nicht nur bei der Arbeit hilft, sondern auch zum Spaß und für Hobbys genutzt wird (vgl. [Gu02]). Dennoch wird der Computer von den meisten Schülerinnen und Schülern überwiegend nur rezeptiv verwendet: zum chatten, mailen, spielen und kommunizieren in sozialen Netzwerken. Die wenigsten erstellten aber selbst Spiele und Animationen mit dem Werkzeug Computer. Es ist quasi, als ob sie lesen, aber nicht schreiben können (vgl. [Re07]). Aufgabe eines modernen Informatikunterrichts sollte es damit sein, die Schülerinnen und Schüler zu einem gestalterischen Umgang mit Informatiksystemen zu befähigen. Diese geänderte Sichtweise muss sich auch in der Lehrerbildung niederschlagen, regelmäßig greifen Lehrerinnen und Lehrer auf Mittel und Methoden zurück, wie sie auch selbst einen Inhalt erfahren haben. Diese Entwicklungen implizieren auch geänderte Ziele und Anforderungen für die Schülerinnen und Schüler: die Gestaltung von Medien und Spielen zu eigenem Nutzen statt des Entwurfs und Implementierens fremdbestimmter Probleme und Softwaresysteme. In der Praxis stellt sich das geringe Stundendeputat des Fachstudiums als problematisch dar. So belegen Studierende des Lehramts für die Sekundarstufe I mitunter nur 6-8 SWS im fachwissenschaftlichen Bereich. Komplexe Programmiererfahrungen sind hier gar nicht möglich. Die GI-Empfehlungen selbst beschränken sich durchaus auf recht einfache und grundlegende Kompetenzen, die durch die Lehrerinnen und Lehrer zu vermitteln sind und auch tatsächlich bleiben die in der Schule vermittelten Programmierkompetenzen relativ elementar. Offensichtlich ist bei der Wahl eines Werkzeugs/einer Programmiersprache zur Einführung in die Programmierung in der Sekundarstufe I nicht nur die mögliche Komplexität, sondern auch das Potential, wie weitere Inhalts- und Prozesskompetenzen angesprochen werden können, zu berücksichtigen: Bspw. Begründen und Bewerten, Strukturieren und Vernetzen, Kommunizieren und Kooperieren. Entsprechend der genannten Probleme und Anforderungen sollte eine Lehrveranstaltung zur Programmierung neben inhaltlichen Schwerpunkten folgende inhaltsübergreifende Ziele verfolgen: 1. Grundlegende und vielfältige Programmiererfahrungen ermöglichen Die Studierenden sollten möglichst viele eigene Mini-Projekte im Semester verwirk- 108 - lichen und ein größeres eigenständiges Programmierprojekt umsetzen. Ideen vermitteln, wie Programmierung in der Schule eingeführt werden kann Studierende tendieren dazu, Inhalte in der Schule so zu vermitteln, wie sie diese selbst erfahren/erlernt haben. Entsprechend ist es wichtig, Methoden und Beispiele aufzuzeigen, die so auch in der Schule verwendet werden können. 3. Eine positive Einstellung zum Programmieren herstellen und Berührungsängste abbauen/verhindern Fast alle Studierenden äußerten zu Beginn Vorbehalte zur Lehrveranstaltung: Zu hohes Tempo, Nichtverstehen u. ä. wurden befürchtet. Solche negative Einstellung wird dann problematisch, wenn selbst Programmierung unterrichtet werden soll. Im Kapitel 3 werden typische Probleme der Lehrveranstaltungen zur Programmierung analysiert und anschließend ein Weg vorgestellt, wie versucht wurde, o. g. Ziele zu erreichen. 2. 3 Zur Einführung in die Programmierung an Hochschulen Probleme und Erfolge beim Lehren und Lernen der Programmierung auf Hochschulniveau gehören zu den gut untersuchten Forschungsgebieten der Informatikdidaktik. Traditionelle Lehrmethoden führen regelmäßig dazu, dass Studierende nur ein oberflächliches Programmierverständnis erreichen und Programmieraufgaben Zeile um Zeile lösen, statt Programmstrukturen im größeren Kontext zu berücksichtigen [SS89]. Zwar besitzen Studierende Wissen hinsichtlich Syntax und Semantik einzelner Befehle, allerdings fehlt Wissen und Erfahrung, sie zu Programmen zusammenzusetzen (vgl. [Wi96]). Entsprechend sollte Konzeptwissen und dessen Anwendung frühzeitig im Lernprozess berücksichtigt werden. Eine weitere Hürde stellt die Syntax der verwendeten Sprache dar, welche bei Programmieranfängern regelmäßig zu großen und frustrierenden Problemen führt (vgl. [KP05]). Durch eine komplexe Syntax verschiebt sich der Fokus: Anfänger bemühen sich mitunter derart darum, die Syntax richtig einzuhalten, dass der zugrunde liegende Algorithmus nachrangig wird. Bei z. B. [MPS06] führte eine einfachere Syntax auch zu weniger logischen Fehlern. Befürchtungen und Ängste hinsichtlich des Programmierens wirken sich unweigerlich auf die Motivation der Studierenden aus. Wird es den Studierenden ermöglicht, eigene Probleme auszuwählen und die Ideen kreativ umzusetzen, können hierdurch Motivation und Interesse gesteigert werden (z.B. [MST97]). Insbesondere für zukünftige Informatiklehrer scheint es angebracht zu sein, Programmieren als Mittel persönlichen kreativen Gestaltens einzuführen und zu motivieren. Nicht zu letzt ist bekannt, dass Frauen ihre Informatikausbildung häufig abbrechen, weil sie in Informatikkursen nicht genug Raum für individuelle Kreativität finden [Gu02]. Die dokumentierten Lernschwierigkeiten schlagen sich in Ängsten und Befürchtungen der Studierenden wieder. Studienanfänger befürchten, dass das Informatikstudium zu schwierig für sie sein könnte und sie möglicherweise falsche Vorstellungen besitzen könnten [RS06]. Vor diesem Hintergrund befragten wir die Studierenden des Kurses Objektorientierte Modellierung und Programmierung nach ihren Vorstellungen, Wünschen und Befürchtungen hinsichtlich der Lehrveranstaltung. Diese spiegeln die informell transferierten Erfahrungen anderer Studierenden und damit einhergehende Befürchtungen wieder, - 109 - äußern aber auch daraus resultierende Hoffnungen, wie der eigene Lernprozess entsprechend besser verlaufen könnte. Befürchtet wird, dass viele Sprachen nur oberflächlich angesprochen werden, dass zu viele Vorkenntnisse vorausgesetzt werden, dass es im Kurs zu schnell geht und dass die Studierenden mit dem Verständnis nicht mitkommen. Die Studierenden wünschen sich durchaus, einen hinreichenden Einblick in die Programmierung zu erlangen, ja gar „als Programmierer den Kurs zu verlassen“. Konkret wünschen sie sich mehr Praxis als Theorie und anwendungsorientiertes Lernen anhand von Projekten und dass sie anschließend Programme für den privaten Gebrauch und die Schule erstellen können. Um das Ziel zu erreichen, dass die Studierenden einen konzeptorientierten Einstieg in die Programmierung erfahren, der sie bei ihren geringen Vorerfahrungen abholt, früh Erfolgserlebnisse verschafft, Kreativität im Programmieren deutlich macht und zugleich analog in der Schule einsetzbar ist, geschieht der Einstieg in die Programmierung mit Scratch analog einem erprobten und evaluierten Unterrichtsbeispiel [Ro07]. Für die weiterführende Lehre bleiben nun verschiedene Möglichkeiten, den Übergang zu einer komplexeren Programmiersprache zu gestalten. 4 Ansätze zu Einstieg und Fortführung der Programmierung Lehrveranstaltungen zur Programmierung lassen sich losgelöst von einer konkreten Programmiersprache (z. B. mit Hilfe von Pseudosprachen), anhand einer konkreten Programmiersprache oder mithilfe verschiedener, oft zahlreicher, Programmiersprachen durchführen – alle Varianten sind an Schulen und Hochschulen zu finden. Die Verwendung eine Pseudosprache eignet sich für die Schulpraxis nicht, verhindert sie doch, Lerninhalte zu demonstrieren, Ideen umzusetzen und schnelle Erfolge zu erzielen. Damit ist auch die Verwendung im Lehramtsstudium fraglich. Insbesondere an Schulen wird häufig versucht, innerhalb einer Sprachfamilie zu bleiben: Miniwelten eignen sich zum motivierten Einstieg in die Programmierung, der Umstieg in eine „richtige“ Programmiersprache bleibt allerdings problematisch. Ansätze zur Lösung des Problems bieten Miniwelten, die eine (ähnliche) Syntax der später intendierten Programmiersprache verwenden: z.B. Java-Hamster, Java-Kara oder Ruby-Kara. Problematisch bleibt bei diesen Beispielen der Umstand, dass die Sprachen selbst beim Erlernen aufgrund der Syntax und Komplexität Probleme bereiten und ein Verständnis der zugrundeliegenden Konzepte nur unzureichend unterstützt wird. Der Umstieg in die nächst höhere Programmiersprache erfolgt in einem großen Schritt: Die potentiellen Möglichkeiten der Programmiersprache vervielfachen sich, die tatsächlichen Möglichkeiten werden allerdings aufgrund des unzureichenden Vorwissens stark eingeschränkt: Die Möglichkeit wie bisher in Miniwelten Figuren zu animieren entfällt, neue thematisierte Projekte entstammen mitunter konträren und v. a. abstrakten Themen wie Berechnungen oder Sortieren. Die Verwendung visueller Programmiersprachen ist ein gängiger Ansatz, die Einführung in die Programmierung zu erleichtern. Vorteile ergeben sich vor allem aus der didaktisch reduzierten Entwicklungsumgebung, dem Eliminieren der Möglichkeit, Syntaxfehler zu machen und motivierenden Aufgabenstellungen (vgl. [Ko09]). Ist ein Verständnis für die Programmierkonzepte erreicht worden, muss nur noch eine neue Syntax sowie der Umgang mit dieser erlernt werden. Die Gestaltung eines solchen Übergangs kann sich allerdings als schwierig gestalten. Beispielsweise sind für die weiterführende Lehre nach - 110 - Scratch noch keine Unterrichtskonzepte bzw. -erfahrungen dokumentiert. Greenfoot eignet sich für die weiterführende Lehre nach einem Einstieg mit Scratch: Die Art und Weise der Softwareentwicklung bleiben ähnlich (Animationen, Spiele und Simulationen), Greenfoot erweitert allerdings durch die Verwendung von Java die Möglichkeiten um ein Vielfaches. Auch hier bleibt aber das Problem, die hinzugekommenen Möglichkeiten so zu verpacken, dass der Schritt des Umstiegs überschaubar und der Lernende nicht „erschlagen“ wird. Ein Versuch, diesem Problem gerecht zu werden, stellt Scratch2Greenfoot dar. 5. Scratch2Greenfoot Scratch2Greenfoot1 besteht aus einem Template für Greenfoot, in welchem viele wesentliche Programmier-Bausteine von Scratch in Greenfoot nachmodelliert sind (z.B. turn x, go to x y), verschiedenen Beispielen und einer Dokumentation. Hierdurch beschränkt sich die Hürde des Umstiegs auf das Zurechtfinden in der neuen Entwicklungsumgebung und der Verwendung von Java als Programmiersprache, welche die Einhaltung der Syntax nun konsequent erforderlich macht. Eine wesentliche Motivation zur Verwendung von Greenfoot und damit zum Umstieg auf Java wird durch die Illustration dynamischer Objekterzeugung anhand des Projekts „Springende Bälle“ verdeutlicht: War es in Scratch noch mühsam, neue Bälle durch Kopieren einzeln hinzuzufügen, lassen sich in Greenfoot relativ einfach zahlreiche Instanzen der Klasse Ball erzeugen. Entsprechend erfolgt der Umstieg am Beispielprojekt Pong. Die Studierenden haben hierzu in Scratch ein einfaches Pong-Spiel implementiert und übertragen nun diese Lösung nahezu eins zu eins nach Greenfoot. Die in Scratch2Greenfoot nachmodellierten Scratch-Bausteine lassen sich analog der Programmierung in Scratch verwenden, verdeutlichen aber gleichzeitig ihre Verwendung in Greenfoot und damit ein Verständnis für die Programmiersprache Java. Vorteilhaft bei dieser Vorgehensweise ist, dass sich die Studierenden vordergründig auf die Verwendung der Konzepte beschränken können unter Beibehaltung und Erweiterung ihres bis dahin erworbenen Programmierverständnisses, Brüche werden vermieden. In der weiteren Entwicklung eigener Projekte können die Studierenden auf ihrem Wissen um Scratch aufbauen und Projekte analog implementieren. Die Dokumentation von Scratch2Greenfoot verdeutlicht dabei, wie die Java-Syntax im Vergleich zu den ScratchBausteinen anzuwenden und wie nicht analog implementierte Konzepte zu handhaben sind. Bei einer geschickten Steuerung des weiteren Unterrichtsverlaufs werden alle behandelten Konzepte spiralcurricular wiederholt im Greenfootkontext thematisiert und neue Konzepte bei der Erstellung komplexerer Projekte sukzessive eingeführt. Greenfoot motiviert dabei zusätzlich den Modellierungscharakter der Programmierung und die damit verbundenen Konzepte wie Vererbung, Klasse vs. Objekt, Attribute und Methoden. Die Gewissheit, in Scratch bereits Erfolge erzielt zu haben und mit Greenfoot eine leistungsfähigere Sprache zu benutzen, wirkt zusätzlich motivierend; ein „Verlorensein“ wird vermieden, indem immer wieder der Bezug zu vorherigen Erfahrungen hergestellt 1 Sprich: Scratch to Greenfoot (Von Scratch zu Greenfoot). http://greenroom.greenfoot.org/resources/8 - 111 - wird. Als möglicherweise problematisch könnten sich die unterschiedlichen „Arbeitsweisen“ von Scratch und Greenfoot darstellen – während Scratch aktionsgesteuert ist, müssen in Greenfoot alle Aktionen über eine „Act-Methode“ als Controller gesteuert werden. In der Praxis hat sich dies allerdings als erstaunlich unproblematisch erwiesen. 6 Erprobung und Fazit Eine erste Erprobung verlief erfolgreich, alle Studierenden machten frühzeitig positive Erfahrungen mit Scratch und konnten die konstruktionistische und kreative Sichtweise auf die Programmierung mit Greenfoot übertragen. Auch wenn die nun konsequent erforderliche Berücksichtigung der Syntax und die damit verbundene Notwendigkeit des Debuggens die Studierenden extra Aufmerksamkeit und Nerven kostete, war die Aussicht auf ein gutes funktionierendes Programm motivierend. Das Ergebnis des insgesamt nur 12 zweistündige Lehrveranstaltungen umfassenden Kurses war sehr zufriedenstellend: Alle Studierenden entwickelten mehrere Programme und als Abschlussprojekt ein umfangreiches, selbstentwickeltes Spiel. Damit starten sie mit einem positiven Bild von der Programmierung, guten Erfahrungen und Ideen, wie sie selbst Programmierung im Unterricht umsetzen können, in den Lehrerberuf. Eine ausführliche Evaluation und Weiterentwicklung des Konzepts sind in Vorbereitung. 7 Literatur [GH10] Gutknecht, J.; Hromkovic, J.: Plädoyer für den Programmierunterricht. In InformatikSpektrum 33(2), 2010; S. 230-238. [Gu02] Guzdial, M.; Soloway, E.: Teaching the Nintendo generation to program. In Commun. ACM 45(4), 2002; S. 17-21. [KP05] Kelleher, C.; Pausch, R.: Lowering the barriers to programming. In ACM Computing Surveys 37(2), 2005; S. 83-137. [Ko09] Kohl, L.: Kompetenzorientierter Informatikunterricht in der Sekundarstufe I unter Verwendung der visuellen Programmiersprache Puck. Jena, 2009. [MPS06] Mannila, L.; Peltomäki, M.; Salakoski, T.: What about a simple language? Analyzing the difficulties in learning to program. In Computer Science Educ. 16(3), 2006; S. 211-227. [MST97] Meisalo, V.; Sutinen, E.; Tarhio, J.: CLAP: teaching data structures in a creative way. Proc. Proceedings of the 2nd conference on Integrating technology into computer science education, Uppsala, Sweden, 1997. [Re07] Resnick, M.: Sowing the Seeds for a More Creative Society. Proc. Learning & Leading with Technology, International Society for Technology in Education (ISTE), 2007. [Ro07] Romeike, R.: Animationen und Spiele gestalten. Ein kreativer Einstieg in die Programmierung. In LOG IN 146/147, 2007; S. 36-44. [RS06] Romeike, R.; Schwill, A.: "Das Studium könnte zu schwierig für mich sein" - Zwischenergebnisse einer Langzeitbefragung zur Studienwahl Informatik. Proc. HDI 2006: Hochschuldidaktik der Informatik, München, Lecture Notes in Informatics, 2006. [SS89] Soloway, E.; Spohrer, J. C.: Studying the novice programmer. L. Erlbaum Associates Inc. , Hillsdale, NJ, USA, 1989. [Wi96] Winslow, L. E.: Programming pedagogy - a psychological overview. In SIGCSE Bull. 28(3), 1996; S. 17-22. - 112 - Didaktik und Bewertung in längerfristigen Teamprojekten in der Hochschullehre Livia Predoiu Universität Mannheim, Fakultät für Informatik [email protected] Abstract: Dieser Artikel präsentiert einen Ansatz, der die individualisierte Bewertung der einzelnen Teammitglieder eines Teams bei längerfristigen Teamprojekten ermöglicht. Der Ansatz basiert auf einer Kombination des Portfolio- und des PeerAssessment-Konzepts. Neben der Möglichkeit, aus der Gesamtprojektleistung die Einzelleistungen herzuleiten, bietet der Ansatz auch vielversprechende didaktische Möglichkeiten zum Erlernen kooperativer Software-Entwicklung im Team. 1 Einleitung und Motivation In der Mannheimer Lehre gibt es seit dem Wintersemester 2009 einen neuen MasterStudiengang Wirtschaftsinformatik, in dem unter anderem vorgesehen ist, dass ein Teamprojekt über den Zeitraum von 2 Semestern bearbeitet wird1 . Teamprojekte stellen eine Herausforderung für die Bewertung in der Lehre dar, da die objektive Bewertung der einzelnen Mitglieder eines solchen Teams nicht mehr so einfach ist. Die Leistung des Einzelnen verschwimmt in der Leistung der Gruppe. Zudem sind die didaktischen Anforderungen an solche langfristigen Team-Projekte nicht zu unterschätzen. Die Studenten müssen sowohl die inhaltlichen Aspekte des Projekts als auch die organisatorische Aspekte der Teamarbeit bewältigen. Die Teamprojekte an der Universität Mannheim sind Implementierungsprojekte. Diese bieten sich im Bereich (Wirtschafts-)Informatik an, weil die Erstellung von Software eine essentielle Kernkompetenz von Informatikern ist, die auch im Studium vermittelt werden soll. Softwareentwicklung findet auch auch im Berufsleben im Team und über einen längeren Zeitraum statt. Längerfristige Teamprojekte bereiten die angehenden Informatiker daher aufs Berufsleben vor. Dass dies jedoch in der Praxis nicht gut gelingt, zeigt eine Studie aus dem Jahr 2009 (vgl. [Col09]). Diese Studie hat untersucht, auf welche Qualifikationen bei Absolventen im Bereich Software-Entwicklung an der Hochschule und in der Industrie Wert gelegt wird. Anschließend ist die Industrie befragt worden, in welchem Maß diese Qualifikationen bei Berufsanfängern vorhanden sind. Die aus Sicht der Hochschulen und der Industrie wichtigen Qualifikationen entsprechen sich weitgehend, werden 1 http://www.win.uni-mannheim.de/159.html - 113 - aber bei den Absolventen nur in sehr geringem Maß vorgefunden. Zu den mangelhaft vorgefundenen Qualifikationen gehören rein fachliche Qualifikationen wie z.B. Kenntnisse zum umfangreichen Testen von Softwaresystemen, zur Fehlersuche in Softwaresystemen, zum Refaktorisieren und zu komplexen Systemen im Allgemeinen, aber auch Fähigkeiten wie Teamarbeit, Kommunikation, Selbstorganisation und strukturiertes Denken sind weitgehend vermisst worden. Das zeigt deutlich den Bedarf eines didaktischen Ansatzes zur Vermittlung sämtlicher bei der Software-Entwicklung benötigten Qualifikationen in der Informatik. Hierbei spielt auch die Bewertung und die Möglichkeit, die Leistung des Teams auf die Einzelleistung eines Mitglieds herunterzubrechen, eine wichtige Rolle. Eine gute und angemessene (individualisierte) Bewertung hat auch ein beträchtliches didaktisches Potential, da sie den Studenten zum einen Feedback zur erbrachten Leistung gibt und sie zum anderen dazu motiviert, sich mehr anzustrengen [Pre10, Big03]. Unser Ansatz zur Didaktik und Bewertung von längerfristigen Teamprojekten besteht aus einer Kombination des Portfolio- und Peer-Assessment-Konzepts. Er unterstützt die Studenten mit Hilfe einer individualisierten Bewertung und individualisiertem Peer-Feedback dabei, alle für die Software-Entwicklung im Team erforderlichen Qualifikationen zu erwerben. Der Artikel ist inhaltlich wie folgt aufgebaut: In Kapitel 2 stellen wir das Portfoliound das Peer-Assessment-Konzept vor, auf denen unser Ansatz basiert. Dann stellen wir in Kapitel 3 unseren Lehransatz vor. In Kapitel 4 schließen wir den Artikel mit Schlussfolgerungen und einer Diskussion. 2 Portfolios und Peer-Assessment Unser Ansatz basiert auf einer Kombination des Portfolio- und des Peer-AssessmentKonzepts. Beide Konzepte haben sich in den letzten Jahren in der allgemeinen Hochschullehre etabliert und werden in verschiedenen Lehrkontexten eingesetzt. Eine allgemeine Einführung gibt es in [Big03] und [MNTB09]. Portfolios sind Sammlungen von Artefakten. Ein Artefakt kann ein Text, eine Grafik, ein Film usw. sein und soll eine wertvolle Fähigkeit/die Anwendung von wertvollem Wissen/eine wertvolle Zugangsweise/einen Lernfortschritt demonstrieren [MNTB09]. Portfolios haben auch eine Einleitung und ein Resümee. Portfolios sind in der Hochschuldidaktik oft das Mittel der Wahl, wenn Studenten Aufgaben bearbeiten oder Probleme lösen sollen, zu denen es nicht eine einzige richtige Antwort oder Lösung, sondern viele richtige Antwort- oder Lösungsmöglichkeiten gibt [DK08]. Hierbei stellt in der Regel ein Student ein komplettes Portfolio zusammen. Wenn den Studenten in der Hochschullehre die Möglichkeit gegeben werden soll, am Bewertungsprozess teilzunehmen, greift man gerne zu Selbst- und Peer-Assessment [RBS05]. Die Vorteile, die sich aus der Involvierung der Studenten in den Bewertungsprozess ergeben, sind eine größere Transparenz und Sicherheit der Studenten bezüglich der sie erwartenden Bewertung einerseits und die Konvergenz von Selbstbewertung mit Fremdbewertung andererseits. D.h. der Student lernt, seine Leistung besser einzuschätzen und in den Fremdkontext zu setzen. Ein selbstbewusster und interaktiver Umgang mit der eigenen Be- - 114 - wertung macht auch den Umgang mit dem Lerninhalt bewusster. Beim Peer-Assessment bewertet der Student nicht nur sich selbst, sondern auch andere Studenten. Wir setzen in unserem Ansatz Peer-Assessment-Sitzungen mit einem Fragebogen ein, der eine Erweiterung des Fragebogens von [Hea99] ist2 . Tabelle 1 stellt den Bewertungsbogen vor, mit dem wir die Studenten dazu anregen, die Leistungen der anderen Teammitglieder zu bewerten. Fragegruppen Regelmäßige Teilnahme an den Teamtreffen Beitrag von Ideen zur Aufgabenstellung Recherche, Analyse & Vorbereitung von Materialien Beitrag zum kooperativen Gruppenprozess Unterstützung und Ermutigung von Teamnmitgliedern Beitrag zur kooperativen Prozessgestaltung Aufgabenverteilung mitgestaltet und Verantwortung übernommen? Abhängigkeiten gut gemeistert, d.h. rechtzeitig Verzögerungen kommuniziert und begründet? Bei Bedarf Hilfe geleistet/um Hilfe gebeten, um die Deadline einhalten Praktischer Beitrag zum Endprodukt Summe Mitglied 1 Pi1 ... Mitglied k Pik Tabelle 1: Bewertungsbogen zum Peer-Assessment. Weitere Details finden sich in [Pre10]. 3 Umsetzung im längerfristigen Teamprojekt Um die Teamarbeit anzuregen und den Arbeitsaufwand des Betreuers zu reduzieren, lassen wir das Team gemeinsam ein Portfolio erstellen, anstatt - wie üblich - jedes Teammitglied ein eigenes Portfolio erstellen zu lassen. Zunächst muss der Betreuer das Teamprojekt in inhaltlich getrennte Projektphasen und dazugehörige Meilensteine aufteilen und dazu Leistungsziele definieren, die jeweils durch das Team erreicht werden sollen. Die Aufteilung in Projektphasen und Meilensteine ist bei der Bearbeitung längerfristiger Projekte allgemein üblich [Ker09]. Eine solche Vorgabe durch den Betreuer gibt dem Team einen groben Rahmen, an dem es sich orientieren kann. Zu jedem Meilenstein gibt es zwei Bewertungen. Zum einen muss in jeder Projektphase durch jedes Teammitglied je ein Artefakt (für das gemeinsame Portfolio) erstellt werden, das der Betreuer bewertet und mit Feedback versieht. Zum anderen wird zu jedem Meilenstein eine Peer-Assessment-Sitzung durchgeführt, in der jedes Teammitglied die Leistung jedes anderen Teammitglieds mit dem in Tabelle 1 skizzierten Fragebogen bewertet. Im Gegensatz zu [Hea99] soll das jeweils bewertete Teammitglied bei uns an diesen PeerAssessment-Sitzungen zwar teilnehmen und Stellung beziehen, darf sich aber nicht selbst mitbewerten. Durch die unmittelbare Bewertung und das Feedback zu jedem Meilenstein werden die Vorteile des formativen Assessments3 genutzt und eine stetige Verbesserung sowohl der inhaltlichen als auch der sozialen, organisatorischen und prozessorientierten Komponente der Leistung jedes einzelnen Teammitglieds von Arbeitsphase zu Arbeits2 Unsere Erweiterung bezieht sich auf die kooperative Prozessgestaltung, die bei [Hea99] unberücksichtigt geblieben ist. Details dazu sind in der Tabelle 1 zu sehen. 3 Formatives Assessment bezeichnet die Bewertung im Verlauf einer Lehrveranstaltung anstatt nur am Ende. Dadurch erhält der Lernende die Möglichkeit, seine Bewertung zu nutzen, um seine Leistung im Verlauf der Lehrveranstaltung zu steigern (vgl. z.B. [Big03]) - 115 - phase ermöglicht. Der Workflow der Projektarbeit mit Artefakt- und Peer-AssessmentBewertungen ist in Abbildung 1 dargestellt. Abbildung 1: Teamprojekt-Bewertungsworkflow: Das Team besteht aus k Studenten, die im Team das Projekt in n Projektphasen bearbeiten. Zu jedem Meilenstein erhält jeder Student eine Artefaktbewertung durch den Betreuer sowie eine Peer-Assessment-Bewertung durch das Team. Eine möglichst genaue Definition der Artefakte durch den Betreuer in den ersten Arbeitsphasen ist sehr wichtig. Alle Artefakte der gleichen Projektphase müssen intensiv miteinander verzahnt sein und die Studenten sollen sich im Rahmen des eigenen Artefaktes auch auf den Inhalt der anderen Artefakte beziehen. So wird die Zusammenarbeit zusätzlich motiviert und angeregt, denn die Leistung soll im Team erarbeitet werden und nur von den Artefaktverantwortlichen festgehalten und dargestellt werden. Gerade bei Softwareentwicklungsprojekten können die ersten Projektphasen sehr gut im Voraus gestaltet und definiert werden, da die Studenten ohnehin zunächst Requirements Engineering betreiben, vergleichbare Systeme untersuchen oder sich in ein bestehendes und im Projekt zu erweiterndes System einarbeiten müssen. Ebenso müssen diverse Technologien untersucht und Bibliotheken und Implementierungen dazu recherchiert und auf Einsetzbarkeit im eigenen Softwareprojekt geprüft werden. Sobald es an den Architekturentwurf und die eigentliche Implementierung geht, sind die Studenten dann durch die bereits bewerteten verzahnten Artefakte und die bereits stattgefundenen Peer-Assessment-Sitzungen idealerweise ausreichend trainiert, um die Architektur eigenständig im Team in Module aufzuteilen und sich im Team jeweils untereinander sowohl geeignete Artefakte als auch Implementierungsaufgaben zuzuweisen. Mit dem Schreiben einer eigenen Einleitung und eines eigenen Resümees durch jedes Teammitglied für das gemeinsam erstellte Portfolio, ergibt sich die Möglichkeit, das Projekt und das Gelernte noch einmal komplett Revue passieren zu lassen. Daher sollte das in der letzten Projektphase stattfinden. Ebenfalls in der letzten Projektphase muss die Dokumentation der erstellten Software gemeinsam fertig gestellt werden. Idealerweise fangen die jeweiligen Artefaktverantwortlichen für die Implementierungsphase(n) bereits zu Beginn der Implementierung an, parallel die Dokumentation vorzubereiten. Die Bewertungen zu den Meilensteinen sind gewichtete Bewertungen gemäß [Hea99]. Die Artefaktbewertung durch den Betreuer wird mit der Peer-Bewertung durch das Team gewichtet. Sei A11 die Artefakt- und P11 die Peer-Bewertung eines Studenten in der ersten Arbeitsphase. Seien P12 , . . . P1k die Peer-Bewertungen der anderen Studenten. Dann er- 116 - gibt sich die gewichtete Bewertung B11 des Studenten für die erste Arbeitsphase nach der folgenden Formel: B11 = P11 ∗ k ∗ A11 Σk1 P1i (1) Im letzten Meilenstein muss anstatt einer Artefaktbewertung die Bewertung von Tool & Dokumentation in die Formel eingesetzt werden und aus der sich ergebenden gewichteten Bewertung und der Bewertung der beiden Artefakte (Einleitung & Resümee) das arithmetische Mittel berechnet werden. Denn in der letzten Projektphase ist die Dokumentation ein Resultat der Teamarbeit und die Artefakte sind indivuelle Einzelarbeiten. Die abschließende Gesamtbewertung B1 dieses Beispielstudenten aus seinen Bewertungen B11 , . . . , B1n zu den n Meilensteinen ergibt sich als arithmetisches Mittel, das man zusätzlich mit der Dauer der Projektphasen gewichten kann, wenn die Dauer unterschiedlich ausfällt4 . 4 Schlussfolgerungen und Ausblick Wir haben einen Ansatz vorgestellt, der eine individualisierte und gerechte Bewertung der einzelnen Mitglieder eines längerfristigen Teamprojekts ermöglicht und einen didaktischen Ansatz vorstellt, mit dem sowohl fachliche als auch persönliche Kompetenzen für Software-Entwicklung im Team vermittelt werden können. Wir verwenden dazu zwei in der Lehre etablierte Konzepte, nämlich Portfolios und Peer-Assessment, und kombinieren sie zu einer auf formativem Assessment basierenden Lehrumgebung, die dem Betreuer und dem Team die Möglichkeit gibt, zu bestimmten Meilensteinen durch Bewertung, Diskussion und Feedback optimierend und korrigierend in die Teamarbeit, die Teamprozesse und die inhaltlich-fachliche Arbeit einzugreifen. Dadurch und durch die Vorgabe der Erstellung intensiv miteinander verzahnter Artefakte sowie der Zuweisung von Artefaktverantwortlichkeiten bietet der Ansatz ein hohes didaktisches Potential und unterstützt die Studenten u.a. beim Erwerb von Skills, die für Teamarbeit und Selbstorganisation im Team nötig sind. Die Teamarbeit wird motiviert, angeregt und angeleitet. Die naive Vorgehensweise bei längerfristigen Teamprojekten bewertet nur das Endergebnis bzw. die entstandene Implementierung und gibt allen Studenten die gleiche Bewertung. Der Betreuer hat relativ viel Aufwand, da er an vielen Teamsitzungen beteiligt sein muss, um das Team zu lenken und Einblick in die Zusammenarbeit zu nehmen. Dadurch entsteht auch die Gefahr, dass der Betreuer zu intensiv in die Teamarbeit involviert wird und sich sowohl inhaltlich als auch in die Teamprozesse zu stark einbringt. So verliert die Bewertung durch den Betreuer aber noch mehr Objektivität. Durch unseren Ansatz kann das Team die Zusammenarbeit selbst regulieren und der Betreuer hat nur vor Beginn des Teamprojekts mit der Planung der Lehrveranstaltung, also vor allem der Definition der Projektphasen, der Leistungsziele und der Artefakte für die ersten Arbeitsphasen etwas mehr zu tun. Im Verlauf der Teamarbeit selbst kann das Team weitgehend sich selbst überlassen werden. Nur zu den Meilensteinen muss der Betreuer ein Artefakt pro Teammitglied 4 Eine ausführliche Veranschaulichung unseres Ansatzes am Beispiel findet sich in [Pre10]. - 117 - lesen und bewerten. Wie intensiv die einzelnen Teammitglieder an der Erreichung der Leistungsziele in den einzelnen Projektphasen beteiligt waren, kann der Betreuer anhand des Peer-Assessment-Ergebnisses erkennen. In unserem Ansatz fließt das Ergebnis des PeerAssessments in die Bewertung der Artefakte ein. Dadurch wird die individualisierte Bewertung objektiv und fair. Es ist davon auszugehen, dass es in diesem Lehrkonzept auch keine Trittbrettfahrer mehr geben wird, weil das Team sich selbst reguliert. Wir haben uns dagegen entschieden, jedes Teammitglied ein eigenes Portfolio erstellen zu lassen, um die Teamarbeit durch ein gemeinschaftlich erstelltes Portfolio zusätzlich zu stimulieren und den Betreuer nicht mit der Bewertung mehrerer individueller Portfolios zu überlasten. Die Verzahnung der Artefakte fördert die Zusammenarbeit. Sehr gut definierte, ineinander verzahnte Artefakte in den ersten Projektphasen lehren die Studenten, in den fortgeschrittenen Projektphasen eigenständige Artefakte zu definieren, die sie in ihrer Teamarbeit unterstützen. Unser Ansatz ist unseres Wissens nach der erste Ansatz, der Portfolios im Bereich längerfristiger Teamprojekte in der Informatik oder Wirtschaftsinformatik einsetzt. Uns ist auch kein ähnlicher didaktischer Bewertungsansatz im Bereich Bewertung längerfristiger Teamprojekte in der Hochschullehre im Allgemeinen bekannt. Derzeit wird unser Ansatz an der Universität Mannheim im Rahmen eines Teamprojekts evaluiert. Acknowledgements: Vielen Dank an Annette Glathe für inspirierende Diskussionen und Kommentare zu dieser Arbeit. Literatur [Big03] John Biggs. Teaching for quality learning at university. McGraw-Hill, 2003. [Col09] Jens Coldewey. Schelchte Noten für die Informatik-Ausbildung. In OBJEKTspektrum 05/2009, 2009. [DK08] Marion Degenhardt und Evangelia Karakiannakis. Lerntagebuch, Arbeitsjournal und Portfolio. Drei Säulen eines persönlichen Lernprozeßbegleiters. In Neues Handbuch Hochschullehre, 2008. [Hea99] Mike Heathfield. Group-based Assessment: An Evaluation of the Use of Assessed Tasks as a Method of Fostering Higher Quality Learning. In Assessment matters in Higher Education. Open University Press, 1999. [Ker09] Harold Kerzner. Project Management: A Systems Approach to Planning, Scheduling, and Controlling. John Wiley & Sons, 2009. [MNTB09] Diann Musial, Gayla Nieminen, Jay Thomas und Kay Burke. Foundations of Meaningful Educational Assessment. McGraw-Hill, 2009. [Pre10] Livia Predoiu. Leistungsbewertung einzelner Team-Mitglieder bei längerfristigen Team-Projekten in der Mannheimer Lehre im Bereich Wirtschaftsinformatik. Technischer Bericht. Hochschuldidaktikzentrum Baden-Württemberg, Universität Mannheim, 2010. [RBS05] Phil Race, Sally Brown und Brenda Smith. 500 Tips on Assessment. Routledge, 2005. - 118 - Einige Anmerkungen zum Begriff IniK Dieter Engbring Universität Paderborn und Gesamtschule Paderborn-Elsen [email protected] sowie Arno Pasternak Technische Universität Dortmund und Fritz-Steinhoff-Gesamtschule Hagen [email protected] Abstract: Vor gut zwei Jahren ist ein Konzept mit der Überschrift „Informatik im Kontext“ (kurz IniK) vorgelegt worden, das im Wesentlichen aus einer Sammlung von Unterrichtsbeispielen besteht, die auf einer zugehörigen Webseite versammelt sind.1 Es handelt sich um ein Konzept, dass nicht nur mit unseren Intentionen zum Informatikunterricht im Einklang steht, sondern auch zu dem passt, was in den Didaktiken der Naturwissenschaften (Biologie, Chemie und Physik) in den letzten Jahren postuliert worden ist. Ein konzeptioneller Überbau für die Unterrichtseinheiten, die unter der Überschrift „Informatik im Kontext“ versammelt wurden, ist nicht erkennbar aber nötig, damit die Sammlung nicht beliebig wird. Einige Grundsätze eines solchen konzeptionellen Überbaus werden wir skizzieren, in dem wir Kriterien benennen, die der Gefahr entgegenwirken, dass hier Beliebigkeit Einzug hält und aus der Vielzahl der Vorschläge begründet ausgewählt werden kann. Denn nicht alles, was auf dem ersten Blick nach IniK aussieht, ist tatsächlich geeignet, • den Schülerinnen und Schülern etwas zur Bedeutung der Informatik (auch im Kontext unseres gesellschaftlichen Zusammenlebens) zu zeigen, • die Inhalte des Informatikunterrichts besser an die Lebenswirklichkeit der Schülerinnen und Schüler anzubinden und zugleich • eine kritische Distanz zur Informationstechnik aufzubauen, denn nicht alles, was dort entwickelt wird bzw. sich dort entwickelt sollte kritiklos hingenommen werden. Weitergehende Gedanken und Überlegungen zu einer Begriffsbestimmung zu IniK sind darauf aufbauend zu entwickeln. 1 Unterricht im Kontext Die Idee zu einer Informatik im Kontext ist nicht neu. Sie ist nicht neu bezüglich des Faches, aber auch nicht bezüglich allgemeiner Entwicklungen in der Didaktik. Sie ist aber auch nicht neu bezüglich der Idee, fachliche Aspekte eines Unterrichtsfaches nicht fachsystematisch, sondern ausgehend vom Schüler zu betrachten. Etwa ab dem Jahre 2000 entstanden in den naturwissenschaftlichen Fächern Initiativen zum kontextorientierten Unterricht. Diese Konzepte sind eine Reaktion auf das vermin1 http://www.informatik-im-kontext.de, Zugriff: 15.6.2010 - 119 - derte Interesse der Jugendlichen für die naturwissenschaftlichen Fächer in den Schulen. Für Chemie im Kontext wird formuliert: „Naturwissenschaftliche Grundbildung (Scientific Literacy) ist die Fähigkeit, naturwissenschaftliches Wissen anzuwenden, naturwissenschaftliche Fragen zu erkennen und aus Belegen Schlussfolgerungen zu ziehen, um Entscheidungen zu verstehen und zu treffen [..] (OECD 2000)“ [IPF08, S.18] Der kontextorientierte Unterricht ist auf der einen Seite das Wiederentdecken (relativ) alter, (schon immer richtiger) didaktischer Ideen vor allem aus dem Bereich naturwissenschaftlicher und technischer Fächer. Auf der anderen Seite stellt er einen neuen Versuch dar, diese Ideen systematisch in die Didaktik und damit in den Unterricht zu integrieren. Um dieses zu festigen, wird Wert auf ein gestuftes Vorgehen gelegt. • • • • Begegnungsphase Neugier- und Planungsphase Erarbeitungsphase Vernetzungs- und Vertiefungsphase [IPF08, S.27] Ausgangspunkt bei allen drei etablierten naturwissenschaftlichen Fächern sind fachliche Basiskonzepte, die in (lebensnahen) Kontexten eingebettet werden sollen, um den Schüler ausgehend von seinem aktuellen Verständnis und Wissensstand zur tieferen fachlichen Einsicht zu führen. Da der Informatik-Unterricht in den Schulen vor ähnlichen Problemen wie der naturwissenschaftliche Unterricht steht, ist es naheliegend, derartige Konzepte auch in der Informatik zu etablieren. Auch für die Didaktik der Informatik ist Informatik im Kontext nur von der Überschrift her ein neuer Ansatz. Er nimmt zwar Bezug auf die oben dargestellten Ansätze aus den Naturwissenschaften, ist von der Idee schon viel älter. Der Bezug auf den Kontext liegt für die Informatik nahe, da sie auch in ihren fachsystematischen Handeln (vor allem bei der Software-Entwicklung), darauf angewiesen ist, dass der Anwendungsbereich einer eingehenden Analyse unterzogen wird. Die Wechselwirkungsprozesse zwischen Informatiksystemen und Einsatzumfeld sind viel enger als in anderen Disziplinen, die sich mit der Herstellung von Artefakten beschäftigen.2 So hat es schon immer auch in den fachdidaktischen Konzeptionen zur Schulinformatik Ansätze gegeben, die den Kontext miteinbeziehen. Die betrifft den anwendungsorientierte Ansatz vom Beginn der 1980er Jahre und die daran zum Teil anknüpfenden Grundbildungsansätze. Das Scheitern dieser Ansätze zeigt deutlich – ohne dass wir diese hier ausführlich darstellen können – die Notwendigkeit auf, Kriterien zu haben, anhand derer die Unterrichtseinheiten beurteilt werden können. 2 Ein konzeptioneller Rahmen für Inik Die Informatik hat sich als Fach Ende der 1960er Jahre an den Hochschulen und ca. 10 Jahre später an den Schulen etabliert. Diese Entwicklung war so rasant, dass die Professionalisierung der Lehrer mit dem Ausbau des Faches nicht Schritt halten konnte. Die technischen Artefakte der Informatik haben sich zudem so schnell weiterentwickelt und 2 Dies wurde ausführlich in [Eng04] dargestellt. - 120 - verbreitet, dass bei vielen Personen ein Bedürfnis entstand, diese auch anwenden zu können. Die Geschichte des Informatik-Unterrichtes in der Sekundarstufe I hat gezeigt, dass die Kolleginnen und Kollegen häufig verunsichert waren und heute noch sind. Aus der Fragwürdigkeit des fachsystematischen Unterrichtes und aus eigener Unsicherheit heraus wird oft die Alternative einer Produkt- oder Werkzeugschulung gewählt. Da es zudem sich um viele sich schnell verändernde Produkte handelt, deren Bezug zu den Hintergründen sich zumindest für den Nicht-Fachmann fast völlig entzieht, ist die Versuchung groß, diese Hintergründe zu ignorieren und sich in der Schule auf Anwendungsschulung zu beschränken. Es ergibt sich damit in den Naturwissenschaften und in der Informatik eine völlig unterschiedliche Ausgangssituation: In den naturwissenschaftlichen Fächern wird in erster Linie ein Unterricht erteilt, der sich an der Fachsystematik orientiert. In der Informatik dagegen findet (in der Sekundarstufe I) oft eine mehr oder weniger intensive Applikationsschulung statt. Naturwissenschaften Informatik Biologie, Chemie, Physik Unterricht in NW in der Sek I heute: Unterricht in INF in der Sek I heute: mit Fachsystematik ohne Kontexte Applikationsschulung als Kontext ohne fachliche Konzepte Unterricht in NW in der Sek I morgen: Unterricht in INF in der Sek I morgen: Fachsystematik entwickelt in und aus Kontexten Fachsystematik entwickelt in und aus Kontexten NW - Unterricht als 'NW i K': erfüllt die Bildungsstandards INF - Unterricht als 'IN i K': erfüllt die Bildungsstandards Abbildung 1: Die Naturwissenschaften und Informatik im Kontext In den Naturwissenschaften wie auch in der Informatik existiert eine Unzufriedenheit mit dieser Situation: In den Naturwissenschaften sollen zur besseren Motivation der Schülerinnen und Schüler zumindest teilweise (lebenswirkliche) Kontexte als Ausgangspunkt dienen, aus denen die fachlichen Konzepte extrahiert werden. Aufgrund der von den Lehrern verinnerlichten Fachsystematik soll und kann erreicht werden, dass eine Kohärenz vorhanden ist und keine Beliebigkeit einzieht. In der Informatik soll durch eine Reihe von Beispielen, die nicht beliebig, sondern kohärent sein müssen, erreicht werden, dass aus den (lebenswirklichen) Kontexten informatische Inhalte und Konzepte extrahiert werden können. Dabei gibt es sicher alternative Wege - 121 - und die Kollegen müssen bzw. können aus einer Auswahl von Beispielen auswählen. Für die Naturwissenschaften und die Informatik gilt gleichermaßen: Im Unterricht sollen die in den Bildungsstandards [GI08], [KMK05a], [KMK05b], [KMK05c] definierten fach-spezifischen Inhalte und Methoden erreicht werden. Ziel muss sein, dass Schüler aus Kontexten heraus fachspezifische Inhalte und Methoden und Kompetenzen erlernen. Sie sollen zu einem nicht unbeträchtlichen Teil die Motivation besitzen bzw. erwerben, sich in ihrem weiteren Schul-, Ausbildungs- und Studienweg naturwissenschaftliche und informatische Inhalte anzueignen, damit ihnen viele attraktive Berufsmöglichkeiten offen stehen und damit dem drohenden gesellschaftlichen Fachkräftemangel entgegengewirkt werden kann. Für Informatiker geht es auch im Informatikunterricht der Sekundarstufe I um die Vermittlung der informatischer Inhalte. Die Bildungsstandards Informatik [GI08] bieten hierfür auch eine fachdidaktische Grundlage. Entsprechend formuliert auch die Initiative Informatik im Kontext auf ihrer Webseite: „Neu ist es, weil sich an den Bildungsstandards zur Informatik orientiert, die 2007 zum ersten Mal vorgestellt und 2008 als Empfehlung der Gesellschaft für Informatik veröffentlicht werden.“3 Diese Bildungsstandards sind bewusst nicht so formuliert, dass aus ihnen ein konkreter Lehrgang abgeleitet werden kann. Dies ist natürlich für den Lehrenden eine Schwierigkeit, wenn wie derzeit häufig keine festen Vorgaben, Richtlinien und Curricula existieren. Die Bildungsstandards mit ihrer Verzahnung von inhalts- und prozessbezogenen Kompetenzen legen einen kontextorientierten Unterricht ähnlich den Forderungen der Naturwissenschaftler nahe. Aber auch andere Unterrichtsformen, wie z.B. ein Projekt, entsprechen den Vorstellungen dieser Standards. Von einem kontextorientierten Unterricht kann erst gesprochen werden, wenn ein nicht unwesentlicher Teil des Unterrichtes entsprechend diesem Ansatz durchgeführt wird. Die Kontexte dürfen daher nicht selbst zu einer Rechtfertigung eines solchen Unterrichtes werden, indem aus einem lebenswirklichen Zusammenhang das Anwenden und das Training einer Anwendungsklasse abgeleitet wird. Daraus folgt, das die Kontexte und die darin vermittelten informatischen Inhalte einen für den Schüler erkennbaren Zusammenhang repräsentieren müssen. Die Organisation dieser Inhalte u.a. in Form derartiger Roter Fäden ermöglicht, dass „der gemeinsame fachinhaltliche Zusammenhang [..] im Verlauf des Unterrichts aus verschiedenen Blickwinkeln oder in verschiedenen Kontexten dargestellt“ wird. „Die Anordnung der unterrichtlichen Gegenstände durchzieht mehrere Unterrichtseinheiten.“ [PV09] 3 Kriterien Es hat sich gezeigt, dass das Problem nicht darin besteht, eine Unterrichtseinheit zu einem IniK-Thema zu konzipieren, sondern in der Auswahl aus der Vielzahl der möglichen Themen. Für die Auswahl werden jedoch Kriterien benötigt, auf deren Grundlage auch 3 ebenfalls: http://www.informatik-im-kontext.de, Zugriff: 15.6.2010 - 122 - Vorschläge als nicht oder weniger passend abgelehnt werden. Die Begründung der Kriterien folgt aus dem bisher Geschriebenen, das wir an dieser Stelle zusammenfassen. potenziell erlebbar Basiskonzepte/ Fundamentale Ideen erfassbare Komplexität lebenswirklich Rote Fäden Informatikinhalte sind enthalten in Kontexte verstehen beeinflussen programmieren modellieren dekonstruieren ordnen erkennen zeitstabil motivieren Schüler Abbildung 2: Informatikunterricht und Kontexte Von entscheidender Bedeutung ist die lebensweltliche Anbindung der Unterrichtsgegenstände. Der Kontext muss für die Lernenden insofern nachvollziehbar sein, dass er potentiell erlebbar ist. Damit ist die lebensweltliche Verankerung nicht auf die aktuelle Lebenswelt beschränkt. Sie kann (oder wird - soweit Prognosen möglich sind) auf die Schüler zukommen, da z.B. alle Schüler nach der Schule damit in Berührung kommen. Dies klingt eigentlich selbstverständlich, ist es aber tatsächlich nicht, da es auf eine Vielzahl von schulischen Inhalten eben nicht zutrifft. Ein Beispiel für die potentielle Erlebbarkeit ist das Online-Banking. In der Sek. I, in der wir Informatik im Kontext im Wesentlichen verankert sehen, haben noch nicht alle Schüler ein Online-Konto. Viele werden sich schon aus Kostengründen eines zulegen. Der bargeldlose Umgang mit Zahlungen und Rechnungen sollte in diesem Zusammenhang ebenso bearbeitet werden. Als zweite Forderung an Unterrichtsreihen (nicht nur aus dem Bereich Inik) ist eine gewisse Zeitstabilität wünschenswert. Schon vor 20 Jahren hat A. Schwill [Sch93] im Zusammenhang mit seinen „fundamentalen Ideen der Informatik“ darauf aufmerksam gemacht, dass sich die Informatik in der Schule sich nicht an die neuesten Erkenntnisse aus der Wissenschaft anhängen solle. Er verweist in diesem Zusammenhang auf die Physik. Ob seine „fundamentalen Ideen“ diesen Ansprüchen genügen, sei jetzt mal dahingestellt, zumindest benennt er die Zeitstabilität als Kriterium für Unterrichtsinhalte. Leider lassen - 123 - sich seriös vielleicht die nächsten beiden Jahren überschauen. Man sollte aber davon absehen, sofort neue Anwendungen einzubeziehen, ohne dass man deren Neuigkeit schon einschätzen kann. So sind die Web2.0-Anwendungen zwar neu, aber die dahinterstehenden Techniken sind es nicht. Auch im Web1.0 war im Prinzip die Trennung von Autoren und Konsumenten bereits aufgehoben. Schließlich folgt aus der Verankerung von Informatik im Kontext in der Sek. I auch, dass die Komplexität der Themen erfassbar sein muss. Das Scheitern des anwendungsorientierten Ansatzes muss hier als Warnung genügen. Last but not least sollte man nach einer Unterrichtsreihe zu Informatik im Kontext eine Reihe der Kompetenzen angeben können, die in den Bildungsstandards der Informatik aufgeschrieben sind. Es sollte sich aber von selbst verstehen, dass eine Unterrichtseinheit keine IniK-Einheit sein kann, wenn ausschliesslich Felder in einer Zeile oder Spalte der Bildungsmatrix der Bildungsstandards angekreuzt werden können. Dieses können und wollen wir an dieser Stelle nicht ausführlich darstellen, da es hier nur darum ging, die Kriterien herzuleiten. Literatur [GI08] Gesellschaft für Informatik e.V.: Grundsätze und Standards für die Informatik in der Schule. LOGIN-Verlag, Berlin, Arbeitskreis „Bildungsstandards“ der GI, 2008. [KMK05a] Ständige Konferenz der Kultusminister der Länder der Bundesrepublik Deutschland. Bildungsstandandards im Fach Biologie für den mittleren Bildungsabschluss - Beschluss vom 16.12.2004. Reihe: „Beschlüsse der Kultusministerkonfernez“. Wolters Kluwer Deutschland - Luchterhand, Neuwied, 2005. [KMK05b] Ständige Konferenz der Kultusminister der Länder der Bundesrepublik Deutschland. Bildungsstandandards im Fach Chemie für den mittleren Bildungsabschluss - Beschluss vom 16.12.2004. Reihe: „Beschlüsse der Kultusministerkonfernez“. Wolters Kluwer Deutschland - Luchterhand, Neuwied, 2005. [KMK05c] Ständige Konferenz der Kultusminister der Länder der Bundesrepublik Deutschland. Bildungsstandandards im Fach Physik für den mittleren Bildungsabschluss - Beschluss vom 16.12.2004. Reihe: „Beschlüsse der Kultusministerkonfernez“. Wolters Kluwer Deutschland - Luchterhand, Neuwied, 2005. [Eng04] Dieter Engbring. Informatik im Herstellungs- und Nutzungskontext. Ein technikbezogener Zugang zur fachübergreifenden Lehre. 2004. [IPF08] Bernd Ralle Ilka Parchmann und David-S. Di Fuccia. Entwicklung und Struktur der Unterrichtskonzeption Chemie im Kontext. In R. u. a. Demuth, Hrsg., Chemie im Kontext - Von der Innovation zur nachhaltigen Verbreitung eines Unterrichtskonzepts, Seiten 9–48, Münster, 2008. Waxmann. [PV09] Arno Pasternak und Jan Vahrenhold. Rote Fäden und Kontextorientierung im Informatikunterricht. In Ingo-Rüdiger Peters, Hrsg., Informatische Bildung in Theorie und Praxis, Seiten 45–56, Berlin, 2009. LOG IN Verlag. Praxisband zur INFOS 2009 [Sch93] Andreas Schwill. Fundamentale Ideen der Informatik. In: Zentralblatt für Didaktik der Mathematik 25 Heft 1 (1993) S. 20-31. - 124 - GI-Edition Lecture Notes in Informatics P-1 P-2 P-3 P-4 P-5 P-6 P-7 P-8 P-9 P-10 P-11 P-12 P-13 P-14 P-15 P-16 P-17 Gregor Engels, Andreas Oberweis, Albert Zündorf (Hrsg.): Modellierung 2001. Mikhail Godlevsky, Heinrich C. Mayr (Hrsg.): Information Systems Technology and its Applications, ISTA’2001. Ana M. Moreno, Reind P. van de Riet (Hrsg.): Applications of Natural Language to Information Systems, NLDB’2001. H. Wörn, J. Mühling, C. Vahl, H.-P. Meinzer (Hrsg.): Rechner- und sensorgestützte Chirurgie; Workshop des SFB 414. Andy Schürr (Hg.): OMER – ObjectOriented Modeling of Embedded RealTime Systems. Hans-Jürgen Appelrath, Rolf Beyer, Uwe Marquardt, Heinrich C. Mayr, Claudia Steinberger (Hrsg.): Unternehmen Hochschule, UH’2001. Andy Evans, Robert France, Ana Moreira, Bernhard Rumpe (Hrsg.): Practical UMLBased Rigorous Development Methods – Countering or Integrating the extremists, pUML’2001. Reinhard Keil-Slawik, Johannes Magenheim (Hrsg.): Informatikunterricht und Medienbildung, INFOS’2001. Jan von Knop, Wilhelm Haverkamp (Hrsg.): Innovative Anwendungen in Kommunikationsnetzen, 15. DFN Arbeitstagung. Mirjam Minor, Steffen Staab (Hrsg.): 1st German Workshop on Experience Management: Sharing Experiences about the Sharing Experience. Michael Weber, Frank Kargl (Hrsg.): Mobile Ad-Hoc Netzwerke, WMAN 2002. Martin Glinz, Günther Müller-Luschnat (Hrsg.): Modellierung 2002. Jan von Knop, Peter Schirmbacher and Viljan Mahni_ (Hrsg.): The Changing Universities – The Role of Technology. Robert Tolksdorf, Rainer Eckstein (Hrsg.): XML-Technologien für das Semantic Web – XSW 2002. Hans-Bernd Bludau, Andreas Koop (Hrsg.): Mobile Computing in Medicine. J. Felix Hampe, Gerhard Schwabe (Hrsg.): Mobile and Collaborative Busi-ness 2002. Jan von Knop, Wilhelm Haverkamp (Hrsg.): Zukunft der Netze –Die Verletzbarkeit meistern, 16. DFN Arbeitstagung. P-18 P-19 P-20 P-21 P-22 P-23 P-24 P-25 P-26 P-27 P-28 P-29 P-30 P-31 Elmar J. Sinz, Markus Plaha (Hrsg.): Modellierung betrieblicher Informationssysteme – MobIS 2002. Sigrid Schubert, Bernd Reusch, Norbert Jesse (Hrsg.): Informatik bewegt – Informatik 2002 – 32. Jahrestagung der Gesellschaft für Informatik e.V. (GI) 30.Sept.3.Okt. 2002 in Dortmund. Sigrid Schubert, Bernd Reusch, Norbert Jesse (Hrsg.): Informatik bewegt – Informatik 2002 – 32. Jahrestagung der Gesellschaft für Informatik e.V. (GI) 30.Sept.3.Okt. 2002 in Dortmund (Ergänzungsband). Jörg Desel, Mathias Weske (Hrsg.): Promise 2002: Prozessorientierte Methoden und Werkzeuge für die Entwicklung von Informationssystemen. Sigrid Schubert, Johannes Magenheim, Peter Hubwieser, Torsten Brinda (Hrsg.): Forschungsbeiträge zur “Didaktik der Informatik” – Theorie, Praxis, Evaluation. Thorsten Spitta, Jens Borchers, Harry M. Sneed (Hrsg.): Software Management 2002 – Fortschritt durch Beständigkeit Rainer Eckstein, Robert Tolksdorf (Hrsg.): XMIDX 2003 – XMLTechnologien für Middleware – Middleware für XML-Anwendungen Key Pousttchi, Klaus Turowski (Hrsg.): Mobile Commerce – Anwendungen und Perspektiven – 3. Workshop Mobile Commerce, Universität Augsburg, 04.02.2003 Gerhard Weikum, Harald Schöning, Erhard Rahm (Hrsg.): BTW 2003: Datenbanksysteme für Business, Technologie und Web Michael Kroll, Hans-Gerd Lipinski, Kay Melzer (Hrsg.): Mobiles Computing in der Medizin Ulrich Reimer, Andreas Abecker, Steffen Staab, Gerd Stumme (Hrsg.): WM 2003: Professionelles Wissensmanagement – Erfahrungen und Visionen Antje Düsterhöft, Bernhard Thalheim (Eds.): NLDB’2003: Natural Language Processing and Information Systems Mikhail Godlevsky, Stephen Liddle, Heinrich C. Mayr (Eds.): Information Systems Technology and its Applications Arslan Brömme, Christoph Busch (Eds.): BIOSIG 2003: Biometrics and Electronic Signatures P-32 P-33 P-34 P-35 P-36 P-37 P-38 P-39 P-40 P-41 P-42 P-43 P-44 P-45 P-46 P-47 Peter Hubwieser (Hrsg.): Informatische Fachkonzepte im Unterricht – INFOS 2003 Andreas Geyer-Schulz, Alfred Taudes (Hrsg.): Informationswirtschaft: Ein Sektor mit Zukunft Klaus Dittrich, Wolfgang König, Andreas Oberweis, Kai Rannenberg, Wolfgang Wahlster (Hrsg.): Informatik 2003 – Innovative Informatikanwendungen (Band 1) Klaus Dittrich, Wolfgang König, Andreas Oberweis, Kai Rannenberg, Wolfgang Wahlster (Hrsg.): Informatik 2003 – Innovative Informatikanwendungen (Band 2) Rüdiger Grimm, Hubert B. Keller, Kai Rannenberg (Hrsg.): Informatik 2003 – Mit Sicherheit Informatik Arndt Bode, Jörg Desel, Sabine Rathmayer, Martin Wessner (Hrsg.): DeLFI 2003: e-Learning Fachtagung Informatik E.J. Sinz, M. Plaha, P. Neckel (Hrsg.): Modellierung betrieblicher Informationssysteme – MobIS 2003 Jens Nedon, Sandra Frings, Oliver Göbel (Hrsg.): IT-Incident Management & ITForensics – IMF 2003 Michael Rebstock (Hrsg.): Modellierung betrieblicher Informationssysteme – MobIS 2004 Uwe Brinkschulte, Jürgen Becker, Dietmar Fey, Karl-Erwin Großpietsch, Christian Hochberger, Erik Maehle, Thomas Runkler (Edts.): ARCS 2004 – Organic and Pervasive Computing Key Pousttchi, Klaus Turowski (Hrsg.): Mobile Economy – Transaktionen und Prozesse, Anwendungen und Dienste Birgitta König-Ries, Michael Klein, Philipp Obreiter (Hrsg.): Persistance, Scalability, Transactions – Database Mechanisms for Mobile Applications Jan von Knop, Wilhelm Haverkamp, Eike Jessen (Hrsg.): Security, E-Learning. EServices Bernhard Rumpe, Wofgang Hesse (Hrsg.): Modellierung 2004 Ulrich Flegel, Michael Meier (Hrsg.): Detection of Intrusions of Malware & Vulnerability Assessment Alexander Prosser, Robert Krimmer (Hrsg.): Electronic Voting in Europe – Technology, Law, Politics and Society P-48 P-49 P-50 P-51 P-52 P-53 P-54 P-55 P-56 P-57 P-58 P-59 P-60 P-61 P-62 P-63 Anatoly Doroshenko, Terry Halpin, Stephen W. Liddle, Heinrich C. Mayr (Hrsg.): Information Systems Technology and its Applications G. Schiefer, P. Wagner, M. Morgenstern, U. Rickert (Hrsg.): Integration und Datensicherheit – Anforderungen, Konflikte und Perspektiven Peter Dadam, Manfred Reichert (Hrsg.): INFORMATIK 2004 – Informatik verbindet (Band 1) Beiträge der 34. Jahrestagung der Gesellschaft für Informatik e.V. (GI), 20.-24. September 2004 in Ulm Peter Dadam, Manfred Reichert (Hrsg.): INFORMATIK 2004 – Informatik verbindet (Band 2) Beiträge der 34. Jahrestagung der Gesellschaft für Informatik e.V. (GI), 20.-24. September 2004 in Ulm Gregor Engels, Silke Seehusen (Hrsg.): DELFI 2004 – Tagungsband der 2. eLearning Fachtagung Informatik Robert Giegerich, Jens Stoye (Hrsg.): German Conference on Bioinformatics – GCB 2004 Jens Borchers, Ralf Kneuper (Hrsg.): Softwaremanagement 2004 – Outsourcing und Integration Jan von Knop, Wilhelm Haverkamp, Eike Jessen (Hrsg.): E-Science und Grid Adhoc-Netze Medienintegration Fernand Feltz, Andreas Oberweis, Benoit Otjacques (Hrsg.): EMISA 2004 – Informationssysteme im E-Business und EGovernment Klaus Turowski (Hrsg.): Architekturen, Komponenten, Anwendungen Sami Beydeda, Volker Gruhn, Johannes Mayer, Ralf Reussner, Franz Schweiggert (Hrsg.): Testing of Component-Based Systems and Software Quality J. Felix Hampe, Franz Lehner, Key Pousttchi, Kai Ranneberg, Klaus Turowski (Hrsg.): Mobile Business – Processes, Platforms, Payments Steffen Friedrich (Hrsg.): Unterrichtskonzepte für inforrmatische Bildung Paul Müller, Reinhard Gotzhein, Jens B. Schmitt (Hrsg.): Kommunikation in verteilten Systemen Federrath, Hannes (Hrsg.): „Sicherheit 2005“ – Sicherheit – Schutz und Zuverlässigkeit Roland Kaschek, Heinrich C. Mayr, Stephen Liddle (Hrsg.): Information Systems – Technology and ist Applications P-64 P-65 P-66 P-67 P-68 P-69 P-70 P-71 P-72 P-73 P-74 P-75 P-76 P-77 P-78 P-79 Peter Liggesmeyer, Klaus Pohl, Michael Goedicke (Hrsg.): Software Engineering 2005 Gottfried Vossen, Frank Leymann, Peter Lockemann, Wolffried Stucky (Hrsg.): Datenbanksysteme in Business, Technologie und Web Jörg M. Haake, Ulrike Lucke, Djamshid Tavangarian (Hrsg.): DeLFI 2005: 3. deutsche e-Learning Fachtagung Informatik Armin B. Cremers, Rainer Manthey, Peter Martini, Volker Steinhage (Hrsg.): INFORMATIK 2005 – Informatik LIVE (Band 1) Armin B. Cremers, Rainer Manthey, Peter Martini, Volker Steinhage (Hrsg.): INFORMATIK 2005 – Informatik LIVE (Band 2) Robert Hirschfeld, Ryszard Kowalcyk, Andreas Polze, Matthias Weske (Hrsg.): NODe 2005, GSEM 2005 Klaus Turowski, Johannes-Maria Zaha (Hrsg.): Component-oriented Enterprise Application (COAE 2005) Andrew Torda, Stefan Kurz, Matthias Rarey (Hrsg.): German Conference on Bioinformatics 2005 Klaus P. Jantke, Klaus-Peter Fähnrich, Wolfgang S. Wittig (Hrsg.): Marktplatz Internet: Von e-Learning bis e-Payment Jan von Knop, Wilhelm Haverkamp, Eike Jessen (Hrsg.): “Heute schon das Morgen sehen“ Christopher Wolf, Stefan Lucks, Po-Wah Yau (Hrsg.): WEWoRC 2005 – Western European Workshop on Research in Cryptology Jörg Desel, Ulrich Frank (Hrsg.): Enterprise Modelling and Information Systems Architecture Thomas Kirste, Birgitta König-Riess, Key Pousttchi, Klaus Turowski (Hrsg.): Mobile Informationssysteme – Potentiale, Hindernisse, Einsatz Jana Dittmann (Hrsg.): SICHERHEIT 2006 K.-O. Wenkel, P. Wagner, M. Morgenstern, K. Luzi, P. Eisermann (Hrsg.): Landund Ernährungswirtschaft im Wandel Bettina Biel, Matthias Book, Volker Gruhn (Hrsg.): Softwareengineering 2006 P-80 P-81 P-82 P-83 P-84 P-85 P-86 P-87 P-88 P-90 P-91 P-92 P-93 P-94 P-95 P-96 P-97 Mareike Schoop, Christian Huemer, Michael Rebstock, Martin Bichler (Hrsg.): Service-Oriented Electronic Commerce Wolfgang Karl, Jürgen Becker, KarlErwin Großpietsch, Christian Hochberger, Erik Maehle (Hrsg.): ARCS´06 Heinrich C. Mayr, Ruth Breu (Hrsg.): Modellierung 2006 Daniel Huson, Oliver Kohlbacher, Andrei Lupas, Kay Nieselt and Andreas Zell (eds.): German Conference on Bioinformatics Dimitris Karagiannis, Heinrich C. Mayr, (Hrsg.): Information Systems Technology and its Applications Witold Abramowicz, Heinrich C. Mayr, (Hrsg.): Business Information Systems Robert Krimmer (Ed.): Electronic Voting 2006 Max Mühlhäuser, Guido Rößling, Ralf Steinmetz (Hrsg.): DELFI 2006: 4. eLearning Fachtagung Informatik Robert Hirschfeld, Andreas Polze, Ryszard Kowalczyk (Hrsg.): NODe 2006, GSEM 2006 Joachim Schelp, Robert Winter, Ulrich Frank, Bodo Rieger, Klaus Turowski (Hrsg.): Integration, Informationslogistik und Architektur Henrik Stormer, Andreas Meier, Michael Schumacher (Eds.): European Conference on eHealth 2006 Fernand Feltz, Benoît Otjacques, Andreas Oberweis, Nicolas Poussing (Eds.): AIM 2006 Christian Hochberger, Rüdiger Liskowsky (Eds.): INFORMATIK 2006 – Informatik für Menschen, Band 1 Christian Hochberger, Rüdiger Liskowsky (Eds.): INFORMATIK 2006 – Informatik für Menschen, Band 2 Matthias Weske, Markus Nüttgens (Eds.): EMISA 2005: Methoden, Konzepte und Technologien für die Entwicklung von dienstbasierten Informationssystemen Saartje Brockmans, Jürgen Jung, York Sure (Eds.): Meta-Modelling and Ontologies Oliver Göbel, Dirk Schadt, Sandra Frings, Hardo Hase, Detlef Günther, Jens Nedon (Eds.): IT-Incident Mangament & ITForensics – IMF 2006 P-98 P-99 P-100 P-101 P-102 P-103 P-104 P-105 P-106 P-107 P-108 P-109 P-110 P-111 Hans Brandt-Pook, Werner Simonsmeier und Thorsten Spitta (Hrsg.): Beratung in der Softwareentwicklung – Modelle, Methoden, Best Practices Andreas Schwill, Carsten Schulte, Marco Thomas (Hrsg.): Didaktik der Informatik Peter Forbrig, Günter Siegel, Markus Schneider (Hrsg.): HDI 2006: Hochschuldidaktik der Informatik Stefan Böttinger, Ludwig Theuvsen, Susanne Rank, Marlies Morgenstern (Hrsg.): Agrarinformatik im Spannungsfeld zwischen Regionalisierung und globalen Wertschöpfungsketten Otto Spaniol (Eds.): Mobile Services and Personalized Environments Alfons Kemper, Harald Schöning, Thomas Rose, Matthias Jarke, Thomas Seidl, Christoph Quix, Christoph Brochhaus (Hrsg.): Datenbanksysteme in Business, Technologie und Web (BTW 2007) Birgitta König-Ries, Franz Lehner, Rainer Malaka, Can Türker (Hrsg.) MMS 2007: Mobilität und mobile Informationssysteme Wolf-Gideon Bleek, Jörg Raasch, Heinz Züllighoven (Hrsg.) Software Engineering 2007 Wolf-Gideon Bleek, Henning Schwentner, Heinz Züllighoven (Hrsg.) Software Engineering 2007 – Beiträge zu den Workshops Heinrich C. Mayr, Dimitris Karagiannis (eds.) Information Systems Technology and its Applications Arslan Brömme, Christoph Busch, Detlef Hühnlein (eds.) BIOSIG 2007: Biometrics and Electronic Signatures Rainer Koschke, Otthein Herzog, KarlHeinz Rödiger, Marc Ronthaler (Hrsg.) INFORMATIK 2007 Informatik trifft Logistik Band 1 Rainer Koschke, Otthein Herzog, KarlHeinz Rödiger, Marc Ronthaler (Hrsg.) INFORMATIK 2007 Informatik trifft Logistik Band 2 Christian Eibl, Johannes Magenheim, Sigrid Schubert, Martin Wessner (Hrsg.) DeLFI 2007: 5. e-Learning Fachtagung Informatik P-112 P-113 P-114 P-115 P-116 P-117 P-118 P-119 P-120 P-121 P-122 Sigrid Schubert (Hrsg.) Didaktik der Informatik in Theorie und Praxis Sören Auer, Christian Bizer, Claudia Müller, Anna V. Zhdanova (Eds.) The Social Semantic Web 2007 Proceedings of the 1st Conference on Social Semantic Web (CSSW) Sandra Frings, Oliver Göbel, Detlef Günther, Hardo G. Hase, Jens Nedon, Dirk Schadt, Arslan Brömme (Eds.) IMF2007 IT-incident management & IT-forensics Proceedings of the 3rd International Conference on IT-Incident Management & IT-Forensics Claudia Falter, Alexander Schliep, Joachim Selbig, Martin Vingron and Dirk Walther (Eds.) German conference on bioinformatics GCB 2007 Witold Abramowicz, Leszek Maciszek (Eds.) Business Process and Services Computing 1st International Working Conference on Business Process and Services Computing BPSC 2007 Ryszard Kowalczyk (Ed.) Grid service engineering and manegement The 4th International Conference on Grid Service Engineering and Management GSEM 2007 Andreas Hein, Wilfried Thoben, HansJürgen Appelrath, Peter Jensch (Eds.) European Conference on ehealth 2007 Manfred Reichert, Stefan Strecker, Klaus Turowski (Eds.) Enterprise Modelling and Information Systems Architectures Concepts and Applications Adam Pawlak, Kurt Sandkuhl, Wojciech Cholewa, Leandro Soares Indrusiak (Eds.) Coordination of Collaborative Engineering - State of the Art and Future Challenges Korbinian Herrmann, Bernd Bruegge (Hrsg.) Software Engineering 2008 Fachtagung des GI-Fachbereichs Softwaretechnik Walid Maalej, Bernd Bruegge (Hrsg.) Software Engineering 2008 Workshopband Fachtagung des GI-Fachbereichs Softwaretechnik P-123 P-124 P-125 P-126 P-127 P-128 P-129 P-130 P-131 P-132 Michael H. Breitner, Martin Breunig, Elgar Fleisch, Ley Pousttchi, Klaus Turowski (Hrsg.) Mobile und Ubiquitäre Informationssysteme – Technologien, Prozesse, Marktfähigkeit Proceedings zur 3. Konferenz Mobile und Ubiquitäre Informationssysteme (MMS 2008) Wolfgang E. Nagel, Rolf Hoffmann, Andreas Koch (Eds.) 9th Workshop on Parallel Systems and Algorithms (PASA) Workshop of the GI/ITG Speciel Interest Groups PARS and PARVA Rolf A.E. Müller, Hans-H. Sundermeier, Ludwig Theuvsen, Stephanie Schütze, Marlies Morgenstern (Hrsg.) Unternehmens-IT: Führungsinstrument oder Verwaltungsbürde Referate der 28. GIL Jahrestagung Rainer Gimnich, Uwe Kaiser, Jochen Quante, Andreas Winter (Hrsg.) 10th Workshop Software Reengineering (WSR 2008) Thomas Kühne, Wolfgang Reisig, Friedrich Steimann (Hrsg.) Modellierung 2008 Ammar Alkassar, Jörg Siekmann (Hrsg.) Sicherheit 2008 Sicherheit, Schutz und Zuverlässigkeit Beiträge der 4. Jahrestagung des Fachbereichs Sicherheit der Gesellschaft für Informatik e.V. (GI) 2.-4. April 2008 Saarbrücken, Germany Wolfgang Hesse, Andreas Oberweis (Eds.) Sigsand-Europe 2008 Proceedings of the Third AIS SIGSAND European Symposium on Analysis, Design, Use and Societal Impact of Information Systems Paul Müller, Bernhard Neumair, Gabi Dreo Rodosek (Hrsg.) 1. DFN-Forum Kommunikationstechnologien Beiträge der Fachtagung Robert Krimmer, Rüdiger Grimm (Eds.) 3rd International Conference on Electronic Voting 2008 Co-organized by Council of Europe, Gesellschaft für Informatik and EVoting.CC Silke Seehusen, Ulrike Lucke, Stefan Fischer (Hrsg.) DeLFI 2008: Die 6. e-Learning Fachtagung Informatik P-133 P-134 P-135 P-136 P-137 P-138 P-139 P-140 P-141 P-142 P-143 Heinz-Gerd Hegering, Axel Lehmann, Hans Jürgen Ohlbach, Christian Scheideler (Hrsg.) INFORMATIK 2008 Beherrschbare Systeme – dank Informatik Band 1 Heinz-Gerd Hegering, Axel Lehmann, Hans Jürgen Ohlbach, Christian Scheideler (Hrsg.) INFORMATIK 2008 Beherrschbare Systeme – dank Informatik Band 2 Torsten Brinda, Michael Fothe, Peter Hubwieser, Kirsten Schlüter (Hrsg.) Didaktik der Informatik – Aktuelle Forschungsergebnisse Andreas Beyer, Michael Schroeder (Eds.) German Conference on Bioinformatics GCB 2008 Arslan Brömme, Christoph Busch, Detlef Hühnlein (Eds.) BIOSIG 2008: Biometrics and Electronic Signatures Barbara Dinter, Robert Winter, Peter Chamoni, Norbert Gronau, Klaus Turowski (Hrsg.) Synergien durch Integration und Informationslogistik Proceedings zur DW2008 Georg Herzwurm, Martin Mikusz (Hrsg.) Industrialisierung des SoftwareManagements Fachtagung des GI-Fachausschusses Management der Anwendungsentwicklung und -wartung im Fachbereich Wirtschaftsinformatik Oliver Göbel, Sandra Frings, Detlef Günther, Jens Nedon, Dirk Schadt (Eds.) IMF 2008 - IT Incident Management & IT Forensics Peter Loos, Markus Nüttgens, Klaus Turowski, Dirk Werth (Hrsg.) Modellierung betrieblicher Informationssysteme (MobIS 2008) Modellierung zwischen SOA und Compliance Management R. Bill, P. Korduan, L. Theuvsen, M. Morgenstern (Hrsg.) Anforderungen an die Agrarinformatik durch Globalisierung und Klimaveränderung Peter Liggesmeyer, Gregor Engels, Jürgen Münch, Jörg Dörr, Norman Riegel (Hrsg.) Software Engineering 2009 Fachtagung des GI-Fachbereichs Softwaretechnik P-144 P-145 P-146 P-147 P-148 P-149 P-150 P-151 P-152 P-153 P-154 Johann-Christoph Freytag, Thomas Ruf, Wolfgang Lehner, Gottfried Vossen (Hrsg.) Datenbanksysteme in Business, Technologie und Web (BTW) Knut Hinkelmann, Holger Wache (Eds.) WM2009: 5th Conference on Professional Knowledge Management Markus Bick, Martin Breunig, Hagen Höpfner (Hrsg.) Mobile und Ubiquitäre Informationssysteme – Entwicklung, Implementierung und Anwendung 4. Konferenz Mobile und Ubiquitäre Informationssysteme (MMS 2009) Witold Abramowicz, Leszek Maciaszek, Ryszard Kowalczyk, Andreas Speck (Eds.) Business Process, Services Computing and Intelligent Service Management BPSC 2009 · ISM 2009 · YRW-MBP 2009 Christian Erfurth, Gerald Eichler, Volkmar Schau (Eds.) 9th International Conference on Innovative Internet Community Systems I2CS 2009 Paul Müller, Bernhard Neumair, Gabi Dreo Rodosek (Hrsg.) 2. DFN-Forum Kommunikationstechnologien Beiträge der Fachtagung Jürgen Münch, Peter Liggesmeyer (Hrsg.) Software Engineering 2009 - Workshopband Armin Heinzl, Peter Dadam, Stefan Kirn, Peter Lockemann (Eds.) PRIMIUM Process Innovation for Enterprise Software Jan Mendling, Stefanie Rinderle-Ma, Werner Esswein (Eds.) Enterprise Modelling and Information Systems Architectures Proceedings of the 3rd Int‘l Workshop EMISA 2009 Andreas Schwill, Nicolas Apostolopoulos (Hrsg.) Lernen im Digitalen Zeitalter DeLFI 2009 – Die 7. E-Learning Fachtagung Informatik Stefan Fischer, Erik Maehle Rüdiger Reischuk (Hrsg.) INFORMATIK 2009 Im Focus das Leben P-155 P-156 P-157 P-158 P-159 P-160 P-161 P-162 P-163 P-165 Arslan Brömme, Christoph Busch, Detlef Hühnlein (Eds.) BIOSIG 2009: Biometrics and Electronic Signatures Proceedings of the Special Interest Group on Biometrics and Electronic Signatures Bernhard Koerber (Hrsg.) Zukunft braucht Herkunft 25 Jahre »INFOS – Informatik und Schule« Ivo Grosse, Steffen Neumann, Stefan Posch, Falk Schreiber, Peter Stadler (Eds.) German Conference on Bioinformatics 2009 W. Claupein, L. Theuvsen, A. Kämpf, M. Morgenstern (Hrsg.) Precision Agriculture Reloaded – Informationsgestützte Landwirtschaft Gregor Engels, Markus Luckey, Wilhelm Schäfer (Hrsg.) Software Engineering 2010 Gregor Engels, Markus Luckey, Alexander Pretschner, Ralf Reussner (Hrsg.) Software Engineering 2010 – Workshopband (inkl. Doktorandensymposium) Gregor Engels, Dimitris Karagiannis Heinrich C. Mayr (Hrsg.) Modellierung 2010 Maria A. Wimmer, Uwe Brinkhoff, Siegfried Kaiser, Dagmar LückSchneider, Erich Schweighofer, Andreas Wiebe (Hrsg.) Vernetzte IT für einen effektiven Staat Gemeinsame Fachtagung Verwaltungsinformatik (FTVI) und Fachtagung Rechtsinformatik (FTRI) 2010 Markus Bick, Stefan Eulgem, Elgar Fleisch, J. Felix Hampe, Birgitta König-Ries, Franz Lehner, Key Pousttchi, Kai Rannenberg (Hrsg.) Mobile und Ubiquitäre Informationssysteme Technologien, Anwendungen und Dienste zur Unterstützung von mobiler Kollaboration Gerald Eichler, Peter Kropf, Ulrike Lechner, Phayung Meesad, Herwig Unger (Eds.) 10th International Conference on Innovative Internet Community Systems (I2CS) – Jubilee Edition 2010 – P-166 P-167 P-168 Paul Müller, Bernhard Neumair, Gabi Dreo Rodosek (Hrsg.) 3. DFN-Forum Kommunikationstechnologien Beiträge der Fachtagung Robert Krimmer, Rüdiger Grimm (Eds.) 4th International Conference on Electronic Voting 2010 co-organized by the Council of Europe, Gesellschaft für Informatik and E-Voting.CC Ira Diethelm, Christina Dörge, Claudia Hildebrandt, Carsten Schulte (Hrsg.) Didaktik der Informatik – Möglichkeiten empirischer Forschungsmethoden und Perspektiven der Fachdidaktik The titles can be purchased at: Köllen Druck + Verlag GmbH Ernst-Robert-Curtius-Str. 14 · D-53117 Bonn Fax: +49 (0)228/9898222 E-Mail: [email protected]