Mittwoch, 28. Januar 2009

                                                             Die zwölfte Sitzung 

Erwartungshaltung

Auch auf die Gefahr hin, dass diese Erwartungshaltung denen früherer Einträge ähneln mag, muss ich auch an dieser Stelle sagen, dass ich mit keinen besonders hohen expectations in diese Sitzung ging. Ich wusste nämlich schon vorher, was Wikis sind und zu welchen Zwecken sie eingesetzt werden. Mit diesem Vorwissen machte ich mich auf eine theoretische Einführung zu dem Prinzip der Wikis gefasst, gefolgt von: na? Genau! Einem Praxisteil. 

Wikis

Zu Beginn der Sitzung wurden die Teilnehmer aufgefordert, sich mit ihren Referatspartnern zusammenzusetzen, was für den späteren Praxisteil von Bedeutung sein würde. Es folgte eine Gruppenarbeit, in der anhand von verschiedenen Wikis online in Erfahrung gebracht werden sollte, worum es sich bei Genanntem überhaupt handele. Die gewonnenen Erkenntnisse wurden im Plenum zusammengefasst.

Ich wurde bezüglich der Seminarstruktur nicht enttäuscht. Die Sitzordnung kam dennoch überraschend. Ich habe an dieser Stelle aber doch etwas gelernt: der Begründer der Wikis hat diesen Namen von den Shuttlebussen, die in Hawaii (glaube ich?) am Flughafen herumfuhren. Auf diesen stand „wiki wiki“ (hawaii(ani)sch für „schnell“). Diese etymologische Kuriosität buche ich als Lernerfolg für den Theorieteil – dieser war anschaulich und ansprechend gestaltet, aber, wie gesagt, mir nichts wirklich Neues bietend.


Das Neue-Medien-Wiki

Im Praxisteil wurden die einzelnen Gruppen aufgefordert, für ihr jeweiliges Referatsthema einen Eintrag in das Wiki des Seminars auf der Stud.IP-Homepage einzutragen. Hierbei bildeten insbesondere die speziellen Editionsbefehle eine Herausforderung: Links konnten erstellt werden und die Formatierung des Textes erfolgte über ein eigenes Codesystem.

Diese Aufgabe hat mich überrascht: in der relativ kurzen Zeit sollten die wesentlichen Informationen zusammengefasst werden. Das erwies sich als dahingehend anspruchsvoll, als dass mehrere Autoren am Verfassen beteiligt gewesen waren. Zum Gaudium des Seminars haben einige Teilnehmer die Aufgabe nicht sehr ernst genommen und eher humoristische Artikel gepostet; insgesamt war die Atmosphäre sehr entspannt.

Den Schluss bildete die obligatorische Diskussion, inwiefern das Wiki-Prinzip für den Schulalltag nützlich ist. 

Fazit

Diese Sitzung war meiner Meinung eher eine Wiederholung bereits erarbeiteter medialer Grundprinzipien sowie deren praktische Umsetzung. Wir haben bereits über den Hypertext an sich gesprochen, der mit seinen Nodes und Links die Grundlage der verknüpften Textteile darstellt. Darüber hinaus haben wir in der vorhergehenden Sitzung die Grundprinzipien des Netzbasierten kooperativen Lernens kennengelernt. Das Wiki ist meiner Meinung nach die pragmatische Konsequenz dieser Konzepte. 

Wichtig ist nun zu sehen, inwiefern die Wikis für den Unterricht brauchbar sind: ich glaube, sie sind es unbedingt. Jeder Schüler wird sich (hoffentlich) während seiner Schulkarriere mit dem Verfassen von digitalen Texten auseinandergesetzt haben. Außerdem ist zu erwarten, dass bekannte Wikis, allen voran die (wie ich finde) hervorragende Wikipedia den Schülern bekannt ist und von ihnen genutzt wird. Wenn nun beispielsweise über einen längeren Zeitraum ein bestimmter Themenkomplex im Unterricht behandelt wird, bietet es sich geradezu an, die von den Schülern erarbeiteten Ergebnisse den Mitschülern nicht nur per Handout zukommen zu lassen, sondern sie auch miteinander in einen größeren Komplex zusammenzufassen, damit dieser wiederum von den Schülern editiert und aktualisiert werden kann. Dies kann sehr nützlich sein, wenn es darum geht, sich am Ende der Bearbeitung des Themenkomplexes zum Beispiel auf eine Prüfung vorzubereiten. 
Darüber hinaus bilden die Wikis eine hervorragende Möglichkeit, fächerübergreifend Hypertexte zu erstellen. Diese Optionen setzen dabei natürlich eine qualifizierte Administration des Lehrers voraus.

Dieser Eintrag ist an sich eher kurz geraten, was aber dem Thema geschuldet ist. 

Dies ist nun der letzte Eintrag in dieses Lerntagebuch. Wie ich zu Beginn der Seminars bereits geschrieben habe, stellt dies nicht nur mein erstes Lerntagebuch dar, sondern auch mein erstes Weblog. Ich habe, wie ich sagen kann, einen großen Nutzen durch das Seminar erfahren. Nicht nur, dass ich mich mit mir bis dahin unbekannten Themen und Medien auseinandersetzen konnte, ich habe außerdem an dem Seminar Freude gehabt und die Zeit mit meinen Kommilitonen und der Dozentin sehr genossen. Ich wollte, die anderen Seminare in dem Bereich der Erziehungswissenschaften würden bei mir einen ebenso positiven Eindruck hinterlassen; indes, sie tun es nicht. Nur weiter so!

ENDE

 


Donnerstag, 22. Januar 2009

                                                              Die elfte Sitzung

Erwartungshaltung


Ich muss gestehen, dass ich nicht wirklich so etwas wie eine Erwartung an diese Sitzung gestellt hatte. ich musste mich also davon überraschen lassen, was genau mit dem „netzbasierten kooperativen Lernen“ gemeint ist und inwiefern das für den Unterricht gebraucht werden kann. 

Netzbasiertes kooperatives Lernen

Zu Anfang der Sitzung wurde das kooperative Lernen definiert. Durch die zunehmende Ausdifferenzierung der Wirklichkeit und die Spezialisierung der Methoden und Wissenschaften gibt es das Universalgenie nicht mehr. Schüler sollen deshalb die Kompetenz erlangen, selbstgesteuert zu lernen. „Kooperatives Lernen bezeichnet einen sozialen Prozess, in dem die Mitglieder einer Gruppe in wechselseitigen Austausch Kenntnisse und Fertigkeiten erwerben. Dabei sind alle Mitglieder im Lerngeschehen beteiligt und tragen gemeinsam Verantwortung.“ Die Vor- und Nachteile de kooperativen Lernens wurden besprochen, wobei Wert darauf gelegt wurde, dass die positive Wirkung abhängig ist von einer klaren Strukturierung und Anleitung, also gewissermaßen von einer Kooperatives-Lernen-Kompetenz. Diese zu vermitteln ist Aufgabe des Lehrers. 

Mit dem kooperativen Lernen an sich habe ich schon sehr viele gute Erfahrungen gemacht, und zwar in mehrerer Hinsicht. So habe ich beispielsweise in Referatsgruppen sehr davon profitiert, dass sich die Teilnehmer in ihrem jeweiligen Fachbereich „spezialisiert“ haben, um hernach den Rest der Gruppe auf einen gemeinsamen Wissensstand zu bringen. Ebenso empfinde ich gemeinsames Lernen für Prüfungen sinnvoll, nicht zuletzt durch den „Lernzwang“, der aus der Verantwortung der Gruppe gegenüber entsteht.

Netzbasierte Szenarien

Das Kooperative Lernen ist an sich nichts Neues, die neuen Möglichkeiten im Unterricht ergeben sich durch die Verknüpfung mit einem elektronischen Netzwerk. Die Vorteile des netzbasierten kooperatives Lernen klingen einleuchtend: „hohe Editierbarkeit, gute Dokumentation, Wiederverwertbarkeit von und Zurückgreifen auf Inhalte, problemlose one-to-many- und one-to-one-Kommunikation, problemlose und leichtere Gruppenorganisation“. 

Diese Vorteile sind sattsam bekannt. Gerade als Student ist man mit den Segnungen des Internets vertraut, insbesondere die Schnelligkeit und Reichweite ist äußerst praktisch. Dass ich mein Lerntagebuch bequem vom Schreintisch aus schreiben und als Prüfungsleistung einreichen kann, ist noch ein geringes Beispiel der vielen Möglichkeiten, die sich durch das Internet ergeben.

Soziale Präsenz & Cognitive Overload

Es folgte ein sehr theoretischer Teil über die soziale Präsenz des Teilnehmers an dem NKL. In 4 verschiedenen Ansätzen wurden die Aspekte beschrieben, um die sich die Rolle des Einzelnen in der Kommunikation im Netzwerk von der „normalen“ intersubjektiven und unmittelbaren Kommunikation unterscheiden. Dabei scheinen die Modelle aufeinander aufzubauen: Das Kanalreduktionsmodell stellt bei dem NKL einen starken Aufgabenbezug her, das Das SIDE-Modell (Social identity and de-individuation) behauptet, dass eine Gruppenidentität innerhalb des Raumes des NKL den Lernerfolg fördere, im Modell der reduzierten sozialen Hinweisreize wird die Gleichheit der Teilnehmer gelobt wobei das Feedback wieder das Individuum in den Blick bekommt, was bei dem NKL nicht fehlen sollte.

Ich muss ganz ehrlich sagen, dass ich die Abgrenzung zwischen den Modellen als etwas konstruiert empfinde und die Namen der „Modelle“ etwas zu großspurig dafür, dass sie offenbar ganz einfache Phänomene der netzwerkbasierten Kommunikation beschreiben. Hm.

Im Anschluss folgte eine Warnung vor einem alten Bekannten des Seminars: dem cognitive overload. 

Ich glaube, dass ein Risiko des NKL darin begründet liegt, dass die Schüler zunächst einen eher phänomenologischen Zugang dazu finden und das NKL dann nicht ernst nehmen. Um von den wirklichen Stärken des NKL zu profitieren, müssten daher zum Beispiel „strenge Kommunikations- und Interaktionsregeln zur Bestimmung von Gruppen- und deren Dialogverhalten“ aufgestellt werden. Der Lehrer erfüllt außerdem eine Organisations- und Administrationsfunktion, eine Motivationsfunktion, eine Vermittlungsfunktion und eine Expertenfunktion – Ansprüche, die das NKL wohl nur den wenigsten Schulklassen vorbehalten. 

www.knowledgeforum.com

Im Praxistest haben wir ein Internetforum besucht, das auf dem Prinzip des NKL basiert. In diesem können Teilnehmer verschiedener Bildungseinrichtungen (nach Niveau gestaffelt von Schule bis Hochschule) Threads initiieren, indem sie Fragestellungen oder Thesen veröffentlichen, worauf dann Bezug genommen wird.

Ich habe oben wichtige Kriterien genannt, die die Arbeit mit dem NKL meiner Meinung nach erheblich einschränken. Anhand des Beispieles wurde gezeigt, dass diese Hürden in der Tat schwierig zu meistern sind: neben einer allgemein als unübersichtlich und unansehnlich empfundenen Benutzeroberfläche sind in dem Forum eben jene genannten Probleme aufgetreten: die Teilnehmer identifizierten sich mitnichten mir der Gruppe, sondern gaben über sie Maßen individuelle Statements ab, wodurch sie sich teilweise disqualifizierten. Der Teilnehmer, der den so genannten „hot seat“ innehat, bekleidet das Amt des Administrators und Moderators, konnte aber die Diskussion nicht in geordnete und konstruktive Bahnen lenken. 


Nach einer Gruppendiskussion über die Unterrichtstauglichkeit endete die Sitzung mit dem gewohnten Feedback.

Fazit

Die Vorteile des kooperativen Lernens sind in der Tat beachtlich: „hohe Involviertheit, aktive Verarbeitung, hohe Lernplanung und -kontrolle, hohe Motivation, Erweiterung des sozial geteilten Wissens und erhöhte Selbstorganisation“ lassen das Herz eines jeden angehenden Lehrers höher schlagen, ist doch der Begriff „Kompetenzerwerb“ Leitmotiv seines bildungswissenschaftlichen Studiums. Man sollte aber nie vergessen, dass kooperatives Lernen immer nur so gut ist wie die Gruppe, in der es stattfindet. Die Wunderwirksamkeit, die manchen „modernen“ Methoden nachgesagt wird (vorzugsweise von ihren Vertretern oder Entwicklern) ist verblüffend.
Eine Gruppe von Lernern, die auch ohne die elektronische Vernetzung die Vorteile des KL auszunutzen weiß, wird auch via Internet zu guten Ergebnissen kommen können. Die Erfahrung aus dem Schulunterricht lehrt aber leider, dass in jeder Lerngruppe zwei Parteien herrschen: die Fleißigen und die Nutznießer. Aus der Verantwortung der Gruppe gegenüber Leistung zu bringen, ist eine Form sozialer Intelligenz, oder, wenn man so will, sozialer Kompetenz. Diese lässt sich aber meiner Meinung nach viel eher in der face-to-face- Situation erwerben: als anonyme Forenbesucher einen problemlösungsorientierten, kollektiven Ehrgeiz zu entwickeln halte ich für schwierig. Das scheint mir ein wesentlicher Nachteil des NKL zu sein.

Ein weiterer Aspekt, den ich als Nachteil des NKL sehe, ist in dem Kanalreduktionsmodell beschrieben. Die direkte Kommunikation bei dem KL hat mir persönlich schon oft geholfen, weil sich der Effekt einstellt, Dinge dadurch zu begreifen, indem man sie anderen erklärt. Heinrich von Kleist hat dieses Phänomen in seinem Aufsatz „Über die allmähliche Verfertigung der Gedanken beim Reden“ beschrieben. Nötig hierzu ist aber die direkte zwischenmenschliche Kommunikation als Individuen sowie eine intersubjektive Vertrautheit der Teilnehmer, beides Faktoren, an denen es dem NKL mangelt.


Mittwoch, 21. Januar 2009

                                                 Die zehnte Sitzung

Erwartungshaltung

Meine Erwartung an diese Sitzung war zwiespältig: Wie schon in den Sitzungen zu dem Thema „Cognitive Maps – Mind Maps“ wurde je eine Sitzung zu der Theorie und eine zu der Praxis angelegt. Nun kommt man aber in einer Sitzung zu der Theorie nicht um eine praktische Veranschaulichung herum – sehr zum Glück der Teilnehmer, wäre eine reine Theoriestunde doch etwas dröge. Daraus ergibt sich aber leider, dass die zweite Stunde im Prinzip genau wie die erste aussieht – einer Wiederholung der Theorie folgen praktische Beispiele. Ich erwartete also ein Déjà-vu, wenigstens aber mit der hoffnungsvollen Aussicht, vielleicht einmal eine für den Unterricht brauchbare Lernsoftware kennenzulernen und nicht wieder Negativbeispiele als solche zu bewerten.

Lernsoftware II Die Praxis

Die Stunde begann mit der Wiederholung der Theorie, die wir die vorige Sitzung kennenlernten. Hierzu wurden die Bewertungskriterien sowie Gattungen der Lernsoftware vom Plenum zusammengetragen. 

Wenig überraschend, aber durchaus sinnvoll. Da der weitere Verlauf der Sitzung absehbar war – nicht zuletzt durch die anfängliche Unterteilung des Seminars in Gruppen an den PCs – hatte man wenigstens die Kriterien die ganze Zeit vor Augen. 

Ein Spanischübungsprogramm - olé

Meine Gruppe hat sich mit einem Übungsprogramm beschäftigt. In verschiedenen Lektionen wurden Grammatikregeln vorgestellt und abgeprüft. Das Programm bot nichts wirklich Überraschendes bis auf eine besondere Meditationsübung, in der mit bunten Farben und klassischer Musik eine Art unterbewusster Lerneffekt erzielt werden sollte.

Ein Programm wie tausend andere. Hat man alles schon gesehen, kennt man schon (bis auf diese esophile Hypnose). Ich selber bin im Besitz mehrerer Softwares, deren motivationale Wirkung die Dauer ihrer Installation kaum übertraf. 

Im Anschluss daran wurden die Programme der einzelnen Gruppen im Plenum vorgetragen, es folgte eine kurze reflektierende Diskussion und ein Feedback.

Fazit

Dieses Lernprotokoll fällt kürzer aus als die vorhergehenden, weil es per definitionem das enthalten soll, was ich gelernt habe. Es ist nicht verkehrt, bereits gewonnene Erkenntnisse zu wiederholen und zu reflektieren, dies wird aber nicht als Neugelerntes verbucht. Im letzten Eintrag bin ich auf die Unterscheidung zwischen den Arten der Programme eingegangen, in dieser Sitzung wurde meine Haltung bestätigt. Das Spanischübungsprogramm ist selbstverständlich für den Lernenden hilfreich, da es nichts weiter ist als die digitale Form des Lehrbuchs. Grammatikregeln und Übungen sowie Lernkontrollen wurden bereits im Mittelalter in Lateinschulen zum Spracherwerb genutzt. 

Es bleibt, was ich im Fazit zur letzten Sitzung geschrieben habe: die wirkliche Domäne der Lernsoftware ist noch nicht erschlossen. In absehbarer Zeit wird sich in diesem Gebiet wohl noch viel verändern.
Aber ganz abgesehen davon: auch wenn eine Lernsoftware ganz hervorragend gelungen wäre, hieße das noch lange nicht, dass sie auch für den Unterricht in der Schule gebraucht werden kann. Meiner Meinung nach ging es in den beiden Sitzungen etwas zu sehr um die Bewertung von Lernsoftware an sich – das steht aber hinsichtlich der Aufgabenstellung des Seminars gar nicht im Vordergrund. 

Ich glaube, dass es nicht ausreicht, ein Programm zunächst anhand von allgemeingültigen Kriterien zu bewerten um sie hernach auf die Unterrichtstauglichkeit hin zu analysieren. Die Kriterien selbst sollten schon auf die Schulfähigkeit ausgerichtet werden. So wäre es meiner Meinung nach interessant, inwiefern die Software etwa gruppentauglich ist, was in den Sitzungen kaum in den Blick kam. Programme, die für den Einzelgebrauch konzipiert wurden, verspielen den entscheidenden Vorteil, den eine Schulklasse bietet: nämlich die Kooperation und den Dialog, das gemeinschaftliche Erarbeiten. Ein anderes eventuelles Kriterium für die Überprüfung der Programme im Bezug auf ihre Unterrichtstauglichkeit wäre, die Rolle des Lehrers in den Blick zu bekommen. Ich meine damit nicht, dass der Lehrer im Medienraum umhergeht und technische oder inhaltliche Fragen bei Bedarf beantwortet – vielmehr sollte die Vernetzung der PCs ermöglichen, den Lehrer zum integralen Bestandteil des Programms zu machen. 

Diese Kriterien sind nur vage Beispiele für einen meiner Kenntnis nach noch nicht ausformulierten Katalog von Anforderungen an ein Programm, das speziell Bestandteil schulischen Unterrichtes werden soll. Wenn solche Kriterien einmal erarbeitet wurden, dann kann es möglich sein, dass die jeweiligen Programme auf diese Anforderungen hin entwickelt werden. Und erst dann würde ich diese auch im Unterricht einsetzen.





Samstag, 17. Januar 2009

                                                            Die neunte Sitzung

Erwartungshaltung

Thema dieser letzten Sitzung vor Weihnachten war: „Lernsoftware“.
Im Seminarplan sind dazu zwei Leitfragen aufgeführt: 

1. Welche Arten von Lernprogrammen gibt es? 
2. Welche Kriterien sollten Lernprogramme aus pädagogisch-psychologischer Sicht erfüllen?

Auf diese Sitzung war ich schon gespannt, weil sie ein Thema behandelt, das meiner Meinung eine große Zukunft hat, aber in vielen Bereichen noch in den Kinderschuhen steckt. Der schon in der Eingangssitzung zum Thema „Computer Literacy“ behandelte Einsatz von PCs in nahezu allen Lebensbereichen wird sich wohl auch (noch mehr als gegenwärtig) in der Lernwelt von Schülern etablieren – sowohl zu Hause als auch im Unterricht.

Lernsoftware I 

Theorie


Den Beginn der Stunde bestimmte ein Vortrag über den Gegenstand „Lernsoftware“. Zunächst wurden die Lernziele bei dem Umgang mit LSW bestimmt, nämlich einerseits die Schlüsselkompetenzen (Lernkompetenz und vernetztes Denken) und andererseits das domänenspezifische Wissen (deklaratives, prozeduales und adaptives Wissen).
Danach wurden 5 Kriterien zur Bewertung von Lernsoftware vorgestellt, nämlich Realitätsnähe, Problemorientierung, Lerneraktivität, adaptive instruktionale Unterstützung und der emotional-motivationale Faktor. 

Die Bewertungskriterien sind durchaus nachvollziehbar – allerdings muss ich mich fragen, inwiefern diese nun gezielt das Lernen mit Software betreffen. Wenn ich mich nicht irre, sind das doch die ganz grundlegenden Aspekte, mit denen ich ohnehin alle Methoden des Lernens bewerte? Bis auf eine eventuelle Erweiterung der Kompetenzen der Schüler im Umgang mit dem PC, die als Schlüsselkompetenz gelten mag, sind das doch eigentlich Allgemeinplätze der Didaktik.

Es folgte eine Vorstellung der einzelnen Lernsoftwaregenres. Diese sind: Übungsprogramme, tutorielle Programme, Simulationen, Cognitive Tools und Datenbanken (Hypermediasysteme). 

Mit all diesen Programmen bin ich schon in Berührung gekommen, allerdings sind die Übungsprogramme die einzigen, denen ich als Lernprogramm begegnet bin. Diese waren durchgehend ausgesucht schlecht. Meine Erwartungshaltung war dementsprechend hoch: Gibt es etwa auf dieser Welt Software, die die scheinbar grenzenlosen Möglichkeiten der Digitalen Welt für das Lernen nutzbar macht?


Praxis

Es folgte eine praktische Übung, in der verschiedene Lernprogramme in Gruppen ausprobiert werden konnten. Die Programme vertraten jeweils ein Genre: Übungsprogramm („Alfons Abenteuer“, für die Mathematik), Simulation („Genius Task Force Biologie“) und Datenbank („Bildende Kunst“). In Gruppen sollte nun jeweils eines der Programme auf die oben erwähnten Kriterien hin untersucht und die Ergebnisse schließlich dem Plenum zugeordnet werden.

Alfons Abenteuer

Ich war in der Gruppe, die das Matheprogramm „Alfons Abenteuer“ behandelt hat. Es handelt sich dabei um ein schlichtes Übungsprogramm, in dem man eine Reihe von Aufgaben lösen soll und schließlich in einem Test abgeprüft wird. Obschon Übungsprogramm, beinhaltete es auch Aspekte der anderen Gattungen: Die Klausuren sind eine Art Simulation, das Interface ist das Antike Athen, in dem man sich ähnlich wie in einem Tutorial von einem Philosophen zum nächsten bewegt, um sich in ihren mathematischen Künsten lehren zu lassen. Als Avatar hierzu dient die anthropomorphe Ente Alfons.

Die Besprechung im Plenum ergab mehrheitlich, dass die Programme nicht überzeugen konnten, und das in mehrerer Hinsicht: 

1. bis auf die Datenbank (und da auch nicht absolut) sind die Programme für den Unterricht in der Schule nicht geeignet gewesen. Somit haben sie im Bezug auf das Seminarskonzept versagt.
2. Auch außerhalb des Unterrichtes, also für den Hausgebrauch, ist die Software nur bedingt nutzbar. Die Spiele glänzten durch eine schlechte Bedienbarkeit, zweifelhafte Lehrinhalte (Alfons Abenteuer enthielt fehlerhafte Lösungen, wie eine Kommilitonin versicherte, die Mathematik studiert, ich hätte das wohl nicht bemerkt) und durch eine fehlende intrinsische Motivation.

Mit einer Feedbackrunde wurde die Sitzung beendet. 

Fazit

Die Sitzung war insgesamt sehr anschaulich und interessant. Insbesondere die Möglichkeit, das jeweils eigene Programm mithilfe des Beamers vorzustellen, hat mir zugesagt – auf diese Weise konnte gewährleistet werden, dass die Kritik auch nachvollzogen werden konnte. 

Da unser Seminar sich mit den Möglichkeiten neuer Medien in der Schule beschäftigt, musste natürlich im Vordergrund stehen, ob und wie die Software unterrichtsfähig ist. Das Ergebnis ist eher ernüchternd. 

Um die Vorteile der Software bestimmen zu können, ist eine klarere Abgrenzung zwischen den Typen erforderlich. Die Datenbank beispielsweise ist nichts weiter als eine digitale Form eines Textes, das Übungsprogramm die Computervariante der altbewährten Übungszettel. Diese Formen der Software sind meiner Meinung nach schon in den Unterricht integrierbar, einfach weil sie nichts wirklich Neues bieten. Abgesehen von einer gründlichen inhaltlichen Prüfung muss das Equipment bereitstehen und vorausgesetzt werden, dass die Schüler die technischen Kompetenzen aufweisen, mit den Programmen umzugehen. Aber: inhaltliche Prüfung etc sind nicht exklusive Voraussetzung für die Einführung Neuer Medien sondern für alle Unterrichtsmaterialien und Medien überhaupt!
Es bleibt also der praktische Nutzen: Neben der Vermittlung wichtiger Kompetenzen (z.B. Umgang mit dem PC) wird weniger Papier verbraucht und die Ergebnisse lassen sich effektiver kontrollieren.

Das gilt zumindest für die Übungs- oder Textverarbeitungsprogramme. Was ist denn nun aber das Besondere an der Software? Wo liegt das Charakteristische im Digitalen Bereich, das der Lernsoftware vorbehalten ist? Was kann ein Programm, das von herkömmlichen Methoden nicht geleistet werden kann? 

Als ein Beispiel will ich die Simulation anführen. Durch eine solche wird eine Situation geschaffen, die der Unterricht in der Form nicht herzustellen imstande ist. Das ist mal was Neues! Ob ich einen Fragebogen digital oder manuell ausfülle erzwingt letztendlich den gleichen Lerneffekt. Wenn ich aber (um bei dem Beispiel der Sitzung zu bleiben) für die Renaturalisierung eines afrikanischen Landstriches zuständig bin, sehe ich mich einer Herausforderung ausgesetzt, die eine Schule niemals stellen kann. Vielleicht liegt hierin die Zukunft der Lernsoftware: nicht in der Computerversion bestehender Lernprinzipien sondern in der Nutzung der mannigfaltigen Möglichkeiten moderner Computertechnik im Bereich der Simulation und der Tutorials.

Es ist wichtig zu erwähnen, dass die Lernsoftware noch Lichtjahre hinter ihren Möglichkeiten zurückliegt. Noch wirkt sie unreif und bemüht, wie ich an dem Beispiel des „Alfons Abenteuer“ erleben durfte - den liebevollen Bemühungen der Programmierer zum Trotz, aus dem Lernen der Mathematik einen Riesenspaß zu machen, dem sich die Schüler bereitwillig auch in ihrer Freizeit hingeben sollen.
Gewisse Blüten, die das Genre der Lernsoftware treibt, grenzen an gnadenlose Naivität. Computer – und Videospiele bilden einen ungeheuren Markt, der sich rasend schnell entwickelt und in der Wirklichkeit von Kindern eine zentrale Stellung einnimmt. Gegen die hoch spezialisierten Programmierer weltweit, die den Markt mir Spielen versorgen, mit solch teilweise lächerlichen Lernspielen anstinken zu wollen, ist mir unbegreiflich. Es ist doch klar, dass die mögliche Zielgruppe unter den Schülern eben jene ist, die ohnehin mit Videospielen vertraut ist. Aber: „Alfons Abenteuer“ ist unter der Würde eines jeden, in dessen Freizeit das Videospiel auch nur eine marginale Rolle spielt.



Mittwoch, 17. Dezember 2008

                                                               Die achte Sitzung

Erwartungshaltung

Das Thema dieser Sitzung war das Lernen durch Schreiben, insbesondere bezogen auf das Führen von Lerntagebüchern. Ich führe nun seit Anfang des Semesters dieses „Lerntagebuch“ und bin leider noch nicht ganz restlos von dessen Effekt auf meinen Lernfortschritt überzeugt. Meine Erwartungshaltung zu Anfang der Sitzung war dementsprechend hoch: ich war ebenso auf die Theorie gespannt wie auf die Frage nach den Vor- und Nachteilen dieser Methode generell und auf die Schulpraxis bezogen. 

Lernen durch Schreiben mit Neuen Medien

Fragebogen

Zu Beginn der Sitzung wurden wir von den Referentinnen dazu aufgefordert, einen Fragebogen bezüglich unserer Handhabung und Erfahrung mit den Lerntagebüchern auszufüllen. Die Ergebnisse der Umfrage wurden während des Theorieteils ausgewertet und später in der Sitzung präsentiert.

Der Fragebogen hat mich überrascht! Insbesondere die Fokussierung auf die Vorbereitung und Vorgehensweise beim Schreiben und die Rolle, die die Bewertungskriterien dabei spielen, empfand ich als gelungen. Diese Fragestellung deckt Schwachpunkte der Lerntagebuchweblogs auf, auf die ich später im Fazit nochmals eingehen werde.

Strong-Text-View of Writing-to-learn-Writing-as-Problem-Solving-View - Theorien

Die Theorie des Lernens durch Schreiben wurde hernach anhand zweier Theorien erläutert, der „Strong-Text-View of Writing-to-learn“ – Theorie und der „Writing-as-Problem-Solving-View“ –Theorie. Erstere beschreibt den Lerneffekt, der sich einstellt, wenn man Wissen versprachlicht (verschriftlicht), die zweite den Prozess der Umstrukturierung des Wissens, der dazu dient, dieses in eine bestimmte Textform zu bringen. 
Diese Prozesse unterstützen das Selbstgesteuerte Lernen, das in den Schritten „Lernziele setzen -> Strategie wählen -> Lernprozess überwachen“ vonstatten geht.

Den Theorieteil hätte ich ohne das Handout nicht klar wiedergeben können. Leider gab es während des Vortrages keinen Leitfaden, den ich mir insbesondere für die beiden Theorien gewünscht hätte. So kann man an meinem und auch an anderen Tagebucheinträgen deutlich ersehen, dass sie der Struktur des Handouts bei der Rekapitulation folgen. Seltsam finde ich retrospektiv die Trennung beider Theorien – vielleicht ist das im Vortrag anders gehandhabt worden, das Handout aber suggeriert eine Art Entweder – oder – Verhältnis, obwohl ich doch annehme, dass diese Effekte sich gar nicht gegenseitig ausschließen? 

Des Weiteren wurde auf die verschiedenen Formen von Lerntagebüchern eingegangen. Um das Ideal des Schreibprozesses zu ermöglichen, in dem der Schreiber den Lernstoff zunächst organisiert, dann elaboriert, später reflektiert und schließlich reguliert, sollte man die Vorgaben (Prompts) sukzessiv reduzieren und die Eigenregulation des Schreibers anregen. 

Die Vor – und Nachteile des Schreibens der Lerntagebücher, die wir danach diskutierten, sind nahezu identisch mit den Vor- und Nachteilen, die wir im Seminar jeder neuen Methode im Vergleich „Modernes Medium“ vs. „Handarbeit“ unterstellen. Ein herausragender Aspekt dabei war aber der der Bewertbarkeit der Lerntagebücher. Hierzu gehe ich in meinem Fazit näher ein.

Gruppenarbeit

In der folgenden Übung wurden wir aufgefordert, die Lerntagebücher auf ihren Nutzen in unseren Schulfächern hin zu untersuchen. Schon zu Beginn der Stunde wurden wir tischweise mit Kommilitonen ähnlicher Fachwissenschaften zusammengesetzt. Hier sollten wir nun überlegen, ob und wie wir in unseren Fächern Lerntagebücher führen würden.

Ich saß mit 3 Kommilitonen an dem Tisch „Sprachwissenschaft“, womit hier der Sprachunterricht gemeint war. Zunächst haben wir Teilaspekte des Sprachunterrichtes selektiv auf ihre Eignung für LTB hin untersucht; hierbei ergab sich, dass uns der Bereich Literatur im Prinzip als der einzige erschien, in dem wir das LTB anwenden würden. Andere Bereiche wie die Grammatik oder Lexik sind nämlich für den Schulunterricht längst durch eine strukturierte, didaktische Reduktion in winzige Bestandteile aufgebrochen worden. Ein Lerntagebuch eignet sich aber unserer Meinung nach eher für längere Lehrinhalte, da in ihnen der Lernprozess besser verfolgt werden kann. Wenn ein längeres Buch gelesen würde, könnten einzelne Kapitel gut in LTB rekapituliert und zusammengefasst werden, für jüngere Jahrgänge eignet sich hierfür besonders das standardisierte LTB.

Die verschiedenen Fachgruppen stellten nach der Arbeitsphase ihre Ergebnisse vor und äußerten Chancen und Risiken der LTB, die sie in den Gruppen erarbeitet hatten. Es folgte die Auswertung der zu Anfang der Stunde gehaltenen Umfrage. 

Ich lag mit fast all meinen Antworten im Mittelfeld. 

Es folgte eine längere Diskussion über Nutzen und Nachteile der LTB und die Frage, inwiefern sie für die Schulpraxis nützlich sind.

Soweit ich mich erinnere, hat die Mehrzahl der Kursteilnehmer eher bezweifelt, dass sie die LTB in der Schule einsetzen würden. Die Gründe hierfür sind verschieden: einerseits eignen sich die LTB nicht für alle Lehrinhalte. Das Erstellen ist aufwändig und kostet Zeit; in Anbetracht der Tatsache, das die Schüler eine Vielzahl an Fächern unterrichtet bekommen, ist es problematisch, mehr als ein TLB zur gleichen Zeit führen zu lassen. Auch kann kein Lehrer für seinen Unterricht exklusiv beanspruchen, dass ein so großer Teil der Hausaufgabenzeit für die LTB eines Faches verwandt wird. 

Der wichtigste Kritikpunkt ist aber der Umstand, dass der Lehrer die LTB bewerten muss.

Fazit

Dieser Kritikpunkt ist in der Tat ein besonders gewichtiger. Alle Kursteilnehmer, die ein LTB führen, können empirisch nachvollziehen, dass die spätere Benotung der Blogs einen nicht unerheblichen Einfluss bereits auf das Verfassen der Einträge ausübt. Die Umfrage hat ergeben, dass ziemlich alle Teilnehmer die Bewertungskriterien gelesen haben, teilweise regelmäßig lesen und einigermaßen im Kopf haben. Nun hat es mit diesen Kriterien eine besondere Bewandtnis: Gemäß der Theorie, die im Referat vorgestellt wurde, kann man grundsätzlich zwischen zwei Formen der LTB unterscheiden, die natürlich auch im Bezug auf ihre Bewertbarkeit unterschiedlich sind: den standardisierten und den offenen LTBs. Wenn man eine Art Fragebogen zu jeder Stunde ausfüllen ließe, wäre der Zweck offensichtlich: die Fragen können nur beantwortet werden, wenn man sich den Lernstoff angeeignet hat. Insofern ist diese Form des LTB geradezu prädestiniert für die Bewertung und Überprüfung. Nicht so die offene Form des LTB: hier soll dem Schreiber nicht durch vorgegebene Prompts, sondern durch eigenständige Organisation, Elaboration, Monitoring und Regulation ein Selbstgesteuertes Lernen ermöglicht werden. Das Selbstgesteuerte Lernen ist dabei höchst subjektiv und auf den Lernzweck hin gerichtet – weniger aber objektiv durch vorangestellte Kriterien bewertbar. 
Dabei ist zu beachten, dass die Bewertungskriterien nicht etwa eine kleine Hilfestellung darstellen, vielmehr sind sie ein Superprompt, der dem gesamten LTB eine bestimmte Richtung gibt. Die Endnote baumelt wie ein Damoklesschwert über den Häuptern der Lerntagebuchschreiber, die sich weniger auf ihren wirklichen Lernfortschritt als auf ein präsentables Ergebnis konzentrieren. 
Diese Annahme wird unterstützt durch die LTB der Teilnehmer selbst: Misst man diese anhand der Bewertungskriterien, stellt man verblüfft fest, dass nahezu alle Teilnehmer die Erwartungen bei Weitem übertreffen! 500 Wörter? Dass ich nicht lache! Ich habe zu diesem Zeitpunkt bereits mehr als das Doppelte in diesem Eintrag! Ein reichlich merkwürdiges Betragen, zumal es der Zeitplan eines Masterstudenten nicht eben einfach machen sollte, so haushoch über die Anforderungen hinaus Leistungen zu erbringen. Dies wird erklärt (alle haben ja die Kriterien gelesen) durch den Schlusssatz: „Je mehr "Punkte" Sie erreichen, umso besser wird die Note, die Sie für das Seminar erhalten - also strengen Sie sich an […]“. 

Ich möchte an dieser Stelle keinem Kollegen etwas unterstellen, sondern schreibe aus eigener Erfahrung. Und wenn ich ganz ehrlich sein soll, dann muss ich zugeben, dass dieses LTB ohne den Notendruck ganz anders aussehen würde. Wenn das aber stimmt, dann schreibe ich dieses LTB gar nicht für mich, für meinen individuellen Lernprozess, sondern eigentlich für Frau Hilbert. Und wenn das stimmt, dann ist es im Prinzip bald gar kein Lerntagebuch zu nennen.

Ich habe vollstes Verständnis für die missliche Lage von Frau Hilbert, nämlich am Ende des Seminars Noten vergeben zu müssen – ich würde das nicht gerne tun. 

Ich darf auf der anderen Seite nicht unerwähnt lassen, dass das Neue-Medien-Seminar dasjenige ist, das für mich in diesem Semester am eindrücklichsten ist. Vielleicht ist das ein unterbewusster Learning-by-writing- Effekt?


Donnerstag, 11. Dezember 2008

                                                        Die siebte Sitzung

Erwartungshaltung

Meine Erwartungshaltung zu diesem Thema war gemischter Natur. Da ich die vorangegangene Sitzung zu der Theorie der CM und MM mitgestaltet habe, bin ich natürlich auch mit der Praxis in Berührung gekommen; so habe ich etwa bereits mehrere Programme für die Externe Visualisierung benutzt (VUE, SmartDraw etc.). Ich ging also nicht wirklich neugierig auf Unbekanntes in die Sitzung, andererseits war ich auch gespannt auf die Umsetzung der Referenten.

Mind Maps und Concept Maps – Die Praxis

Dem Einstieg in das Thema diente die Wiederholung der letzte Woche vorgestellten Theorie der Maps. Schon bald folgte eine Partnerarbeit an den PCs, in der ein Mappingprogramm ausprobiert werden sollte, ein kurzer Leitfaden zur Benutzung lag vor. Mit dem kostenpflichtigen „Mind Manager“ sollte nun eine Mind Map zu Mappingtechniken erstellt werden.

Da ich mich notgedrungen für die letzte Sitzung intensiv mit der Theorie habe auseinandersetzen müssen, barg der Vortrag für mich wenig Nutzen. Die anschließende Übung war hingegen ganz interessant, man hat ansehnliche und überblickbare MM herstellen können. Außerdem wurde als Zentraler Begriff der MM die Mappingtechnik an sich gewählt, so dass nach der Wiederholung der Theorie eine nochmalige Umwälzung des Gelernten gemäß dem Doppeldeckerprinzip erzielt wurde.
Allerdings halte ich für fraglich, ob ich wohl jemals ein Programm für eine MM benutzen werde. Die Spontaneität, das freie Assoziieren und sowohl die Unmittelbarkeit als auch die unvermeidbar persönliche Note bei dem Erstellen einer MM per Stift und Papier werden meiner Meinung nach durch das etwas sterile Endprodukt und den erhöhten Zeitaufwand des Programms spürbar gehemmt.


Der Partnerarbeit folgten eine Austauschrunde und eine kurze theoretische Wiederholung der CM. Nach einer Einführung in ein Online-Mappingprogramm (unter http://tinyurl.com/6ehaj) wurden wir dazu angehalten, darin eine CM zu einem vorgegebenen Text zu erstellen. 

Die stark praktisch angelegte Stunde empfand ich als positiv, die Theorie wurde ja schon ausgiebig behandelt. Die zweite Partnerarbeit – nach den MM nun zu den CM – war ebenfalls aufschlussreich. Die in meinem Tagebucheintrag zu der letzten Sitzung angeführte Subjektivität der CM durch Elaboration etc. war auch hier wieder klar erkennbar. Der Text (Stoffwechsel des Menschen) bot mannigfaltige Möglichkeiten der Visualisierung, wie auch hinterher in den sehr unterschiedlichen CM abzulesen war. 


Es folgte eine Feedbackrunde zu den Vor- und Nachteilen der Verwendung von Computerprogrammen bzw. der manuellen Erstellung von Maps. Hierbei waren die Vorteile relativ ausgewogen. Die zeitaufwändigeren Programme mögen Ergebnisse liefern, die langlebiger und einfacher zu vervielfältigen sind, die Einarbeitung ist aber schwieriger. Per Hand schafft man kurzlebige und unflexiblere Ergebnisse, die sehr viel geringere Einarbeitungsphase und der ebenso kleinere Zeitaufwand sind dafür beachtliche Vorteile.

Meiner Meinung nach fehlte in der Gegenüberstellung der oben erwähnte Aspekt der Persönlichkeit der handgemachten Maps. Die freie Assoziation und die spontanen Verknüpfungen gerade der MM sind in einer selbsterstellten Map optisch nachvollziehbar, was von Vorteil ist, gerade wenn sie für den eigenen Gebrauch gedacht sind. 
Ein wichtiger Aspekt der Maps ist der der Prozesshaftigkeit. Bei dem Erstellen der Map werden die Inhalte erschlossen und verknüpft sowie gespeichert. Eingedenk dieses Aspektes hat meines Erachtens die PapierundStift- Methode einen klaren Vorteil: durch die Art der Verbindungen, durch Verbesserungen oder Durchstreichungen etc., also praktisch alle Aspekte, die eher zu den Nachteilen der handschriftlichen Maps gezählt wurden, gewinnen diese doch einen hohen Wiedererkennungswert. Mir fällt bei nochmaligem Betrachten wieder ein, weshalb ich die Map eventuell verbessern musste oder was ich gedacht habe, als ich diesen oder jenen Strich gezogen habe, was eine Wiederholung auf einem ganz anderen Niveau gestattet als die sterilen und normierten Ergebnisse der Programme. Ich glaube deshalb nicht, dass die Programme der Handschriftlichkeit unterlegen wären, aber die Vor – und Nachteile scheinen mir doch ein wenig pauschal aufgelistet worden zu sein.  

Fazit

Obschon ich mit diesem Eintrag noch über der Anforderung von 500 Wörtern liege, ist er bisher wohl am kürzesten geraten. Das hat den Grund, dass ich mich mit Theorie als auch Praxis eingehend beschäftigt habe um die Theoriestunde vorzubereiten, weshalb ich nicht wirklich viel habe dazulernen können. 
Ich hielt diese Sitzung aber für sehr gelungen, da sie mit der vorangegangenen eine effektive Symbiose einging, in der die Teilnehmer zu „Experten“ der Mappingtechniken werden konnten. Über die erste theoretische Einführung über das Arbeiten mit konstruierten (fehlerhaften) Expertenmaps hin zum eigenen Erstellen wurde somit ein Lernprozess verfolgt, der sicher den meisten zugute kommen kann. Nicht ohne Grund wird diese Heranführung an die Externe Visualisierung auch in dem Buch „Concept Maps und Mind Maps“ als sinnvolle Methodik angesehen (wie letzte Woche im Vortrag über Lehrstrategien vorgestellt: 1. Informiertes Training. 2. Arbeiten mit Vorlagen. 3. Selbstständiges Erstellen ( ggf. im reciprocal teaching)




Mittwoch, 10. Dezember 2008

                                                        Die sechste Sitzung

Erwartungshaltung

Diese Sitzung wurde von Alexander Niedziolka und mir gestaltet, weshalb dieser Lerntagebucheintrag eher die Reflexion des Referates als das in der Sitzung Gelernte behandelt. Meine Erwartungshaltung an die Sitzung bezog sich daher nicht auf den Inhalt sondern auf das Aufgehen unseres Referatskonzepts. Trotzdem halte ich es für sinnvoll, ebenso wie in meinen früheren Einträgen vorzugehen, also eine Rekapitulation der Stunde mit (kursiv gehaltenen) reflektierten Kommentaren zu verfassen.

Concept Maps und Mind Maps – die Theorie

Zu Beginn der Stunde haben Alexander und ich eine Einführung in das Prinzip der Externen Visualisierung gegeben, wobei ein Rückgriff auf die bereits behandelte Gedächtnistheorie vom 30.10.08 als Einstieg diente. Sodann wurden die beiden Mappingtechniken vorgestellt und voneinander unterschieden, die das Thema der Sitzung waren: die Mind Map und die Concept Map. Hierbei wurde der Vortrag unter Verwendung einer CM gehalten, ebenso diente als Beispiel für eine Concept Map ein Bild einer weiteren Concept Map, sodass das zu Ende der Stunde von Frau Hilbert angesprochene Doppeldeckerprinzip ausgenutzt wurde. Die Fokussierung auf die CM ist in der Tatsache begründet, dass die MM schon in ihrer Funktion hinreichend bekannt sein dürften und auch nicht weiter schwierig zu erstellen sind. Die CM hingegen folgen klaren Regeln die bekanntgemacht werden sollten.

Der Vorstellung der Konzepte ging eine erhebliche Reduktion der Informationen der Literatur voraus. Ich habe dabei tatsächlich das erste Mal über CM überhaupt gehört – wohl habe ich schon mehrere gesehen und benutzt, ihre Charakteristika waren mir aber unbekannt. Dabei muss ich gestehen, dass ich diese dichotome Unterscheidung zwischen beiden Techniken nicht wirklich nachvollziehen kann. Mir ist klar, dass sich die freie Assoziation der MM zweckmäßig anders orientiert als die strukturierte und durchdachte CM, aber warum bitte sollte ich mich künstlich bei dem Erstellen einer Map an die vorgestellten Regeln halten? Warum sollte ich nicht die Links der MM beschriften und eine Art optisch repräsentierte hierarchische Struktur des Gegenstandes verfolgen? Ich empfinde die Unterscheidung daher als ein wenig bemüht und theoretisch. 

Nach der Theorie folgte eine Partnerarbeit, in der eine erste Berührung der praktischen Umsetzung der Cm vollzogen werden sollte. Hierfür wurden zwei Texte ausgeteilt, einen eher naturwissenschaftlichen Text über die Atmung und einen eher philosophischen Text von Aristoteles über dessen Differenzierung des Gerechtigkeitsbegriffes. Nach deren Lektüre wurden von uns vorgefertigte CMs ausgeteilt, in denen bewusst Fehler eingebaut waren. Diese waren formeller (Fehlen der Beschriftung von „nodes“ oder „links“) oder inhaltlicher Natur (falsche Zusammenhänge der „nodes“). Nach der Übung wurde die Möglichkeit gegeben, persönliche Eindrücke der Methode zu äußern.

Die Übungen haben wir aus dem Text „Concept Maps und Mind Maps“ von (u.a.) Matthias Nückles entnommen. Bei der Vorbereitung gab es dabei zwei wesentliche, unerwartete Schwierigkeiten: Zum ersten fiel die Auswahl der Texte schwer. Wir hatten beabsichtigt, zwei Sachtexte zu verwenden, die sich in Thematik und Stil voneinander möglichst unterscheiden. Es mag nun möglich sein, dass mithilfe der Mappingtechniken ein beliebiger Text schnell erschlossen und repräsentiert werden kann – einen Text zu suchen, der einerseits gut darstellbar und andererseits komplex genug ist, damit man eine vorzeigbare CM dazu erstellen kann, erwies sich als ungleich schwieriger. Die zweite Schwierigkeit bestand im Erstellen der CMs. Eine wesentliche Unterscheidung zwischen beiden Techniken wurde in der Subjektivität der MM, begründet in dem freien Assoziieren, und in der Objektivität der CM, begründet durch deren klare Strukturierung, festgemacht. Bei dem Erstellen der CMs wurde aber schnell klar, dass sie ebenfalls in nicht unbeträchtlichem Maße subjektiver Natur sind. Ich habe mehrere CMs mit dem (hervorragenden) VUE-Programm erstellt, die sich alle unterschieden, ohne die Regeln der CM zu verletzen. Ein wesentlicher Unterschied begründet sich meiner Meinung nach in der unterschiedlich stark in die Erstellung einfließenden Elaboration des Einzelnen. Informationen, die als selbstverständlich vorausgesetzt werden und somit der Reduktion anheim fallen, sind für andere wiederum wesentliche Kernelemente, weshalb sie in die CM integriert werden. Elaboration, Reduktion und Organisation sind die Grundfunktionen der Tiefenverarbeitung der Mappingtechniken, aber auch Spiegelbild der kognitiven Erschließung des Einzelnen und somit stark subjektiv eingefärbt.
Somit wurde nach der Partnerarbeit über die Korrektheit der CM diskutiert, was auf eben oben beschriebene Subjektivität zurückzuführen und für den Sitzungskontext eher unnötig und zeitraubend war. 


Der Partnerarbeit folgte ein Vortrag über den praktischen Nutzen der Techniken im Schulalltag. Besonders wichtig war hierbei, dass die CM ein eigenes Lernziel darstellen – sie anwenden zu können, kann nicht vorausgesetzt werden und muss mit den Schülern geübt werden.

Im Anschluss daran wurde mit der Gruppe ein Experiment gemacht: sie sollten die vorgestellten Techniken benutzen, um sie auf einen Film zu beziehen. Da die MM auch als Notizwerkzeug gelobt wird und das Seminar immerhin auf neuartige Medien ausgerichtet ist und die multiple Repräsentation eine hochgelobte und zu fördernde Generalkompetenz darstellt, sollte so von der reinen Schrift-Textkonzentration abgesehen werden.

Mit der Auswahl des Filmes hatten wir ebenso Probleme wie mit der Auswahl der Texte für die Partnerarbeit. Da die Auswahl mit dem Anspruch verbunden war, einen möglichst für die Externe Visualisierung geeigneten Film zu finden, der nicht so schlicht wäre, als dass eine solche nicht vonnöten wäre aber auch nicht so kompliziert, dass eine Repräsentation nach zweimaligem Schauen noch nicht möglich wäre. 
Wir haben bei der Vorbereitung natürlich ebenfalls versucht, eine Map zu dem Klimawandel-Film zu erstellen. Herausgekommen ist (wie oben beschrieben) bei mir eine Art Bastard beider Konzepte, eine Mind Map mit teilweise beschrifteten Links und teilweise hierarchischer Gliederung. Diese Vorgehensweise hat es trotzdem möglich gemacht, die wesentlichen Aussagen des Filmes festzuhalten. Ich vermute, das Ergebnis hätte ungleich schlechter ausfallen können, wenn ich mit bei der Erstellung immerzu Gedanken gemacht hätte, ob der geplante nächste Schritt denn auch konform zu den Regeln jeweils einer der Mapgattungen wäre.


Die Erfahrungen der Kommilitonen mit der Mitschrift des Filmes waren sehr unterschiedlich ausgefallen. Ein paar der CMs werden bei Stud.IP hochgeladen. Eine abschließende Feedbackrunde sollte Gelegenheit geben, die Gestaltung der Sitzung zu kommentieren.

Fazit

Die Feedbackrunde hat ergeben, dass ein ganz wesentlicher Kritikpunkt in der Tatsache begründet war, dass wir unter Zeitdruck standen und sich dies bemerkbar gemacht hat. So haben wir (und vor allem ich) zu schnell gesprochen, sodass es den Zuhörern schwer gemacht wurde, zu folgen. Gut wurde insgesamt die Vorbereitung und Strukturierung bewertet. Allerdings stimme ich dem Vorschlag, anstelle der von uns für die Partnerarbeit gewählten Texte hätte man wiederum einen zu den Mappingtechniken nehmen können, um das Doppeldeckerprinzip nochmals auszureizen, nicht wirklich zu. Unsere Absicht war ja gerade, von den ganzen theoretischen Ausführungen zu den Maps wegzukommen und diese auf „echte“ Texte anzuwenden, deren Inhalt nicht zuvor bekannt gewesen war. Aber dessen ungeachtet: Kritik soll nicht Spaß machen, man soll aus ihr lernen. Deshalb werde ich mir Mühe geben, im nächsten Referat nicht so schnell zu reden.