Ein Oskar für das Lebenslehrwerk

„Wir haben von Ihrer Begeisterung und Ihrem Engagement profitiert, von Ihrem Feedback und Ihrem Interesse an uns und unseren Leistungen. Dafür danken wir Ihnen“. Diese Worte formulierten nicht nur mehrfach, sondern durchgängig und in verschiedenen Varianten Studierende am Tag der Lehre 2015 an der Universität Wien, zu dem ich kürzlich eingeladen war (hier der Link zum Blogbeitrag mit meinem Vortrag). Fünf Lehrende wurden an diesem Tag für ihre Lehre ausgezeichnet, und alle waren von Studierenden vorab nominiert worden. Aus diesem Grund hielten auch Studierende eine kleine Laudatio für jede/n Preisträger/in, in der sie ihre Beweggründe für die Nominierung deutlich machten.

„Ein Oskar für das Lebenslehrwerk“ weiterlesen

Unverzichtbares Instrument oder verzichtbare Gängelei?

Evaluation ist ein Thema, das in den letzten zwei bis drei Jahrzehnten in der deutschen Hochschullandschaft kontinuierlich an Bedeutung gewonnen hat. Erfasst und bewertet wird alles, was sich irgendwie greifen lässt: Forschungsleistungen, Publikationen, Forschungsanträge, Reputation, und eben auch die Lehre und die Lehrenden. 2008 ist ein Buch mit dem Titel „Wissenschaft unter Beobachtung“ erschienen. Bruno Frey spricht darin von einer neuen Krankheit: der Evaluitis.

Lehrevaluationen gelten den einen als unverzichtbares Instrument der Qualitätssicherung und -entwicklung, den anderen als verzichtbare Gängelei von Lehrenden und Studierenden. Einerseits wird Transparenz in der Lehre gefordert, andererseits sind kleine Beteiligungsquoten überall ein Problem. Von nützlichen Rückmeldungen für eine bessere Lehre ist ebenso die Rede wie unnützen Befindlichkeitsmessungen. Lehrevaluationen erhitzen schnell die Gemüter und polarisieren mitunter stark.

„Unverzichtbares Instrument oder verzichtbare Gängelei?“ weiterlesen

Folgen einer völlig misslungenen Hochschuldidaktik?

Gestern habe ich in der Online-Ausgabe der FAZ einen Artikel von Magnus Klaue gelesen – der wurde schon vor einem Monat veröffentlicht. Unter dem Titel „Lebenslanges Feedback“ behandelt der Beitrag genau genommen drei Themen in einem (Evaluation – Kompetenzorientierung – Hochschuldidaktik), vermengt diese auch und hat bei mir beim Lesen an einigen Stellen zustimmendes Nicken, an anderen ungläubiges Kopfschütteln und am Ende einen tiefen Seufzer bewirkt. Aber der Reihe nach:

Den Anfang des Textes macht ein kritischer Blick auf die allgegenwärtige Evaluation (zu diesem Thema kann ich auch einen Text von Gunter Dueck empfehlen). Interessanterweise wird die Evaluation hier mit der Prüfung verglichen und dargelegt, dass und warum Evaluationen (anders als Prüfungen) vordergründig auf flache Hierarchien setzen, am Ende aber (wie auch Dueck meint) zu einer „totalen Evaluation“ führen und alle unter Kontrolle stellen. Hier bin ich noch nickend mitgegangen – da ist was dran. Stutzig bin ich allerdings bereits beim Übergang zum zweiten Thema geworden, nämlich zum Thema „Kompetenzorientierung“; an diesem Übergang wird „das Evaluierungswesen als Symptom einer Pädagogisierung des Wissenschaftsbetriebs“ bezeichnet. Wieso? Ich habe trotzdem weitergelesen. Klaue geht im weiteren Verlauf auf den Verlust der Gegenstände im universitären Lehr-Lernbetrieb ein. Diese Passagen kann ich ebenfalls gut nachvollziehen und haben mich an eigene Blogbeiträge (z.B. hier) und an einen SZ-Beitrag von Christoph Türcke erinnert. Aber auch da taucht schnell wieder die Pädagogik als Schuldige auf: Dass leerer Pluralismus in Lehrveranstaltungen den Meinungsstreit und objektloses Lernen des Lernens (für den Erwerb beliebig einsetzbarer Kompetenzen) das exemplarische Lernen ersetzen, haben wir, so Klaues Ansicht, der Pädagogik zu verdanken. Ich vermute, er meint die Didaktik (und nicht die Pädagogik) bzw. genauer: die Hochschuldidaktik. Das jedenfalls wird dann am Ende des Beitrags klar, an dem er die „Totalisierung der Pädagogik“ beklagt: „Für alles, was früher von Studenten und Lehrenden in spontanem Zusammenspiel einfach nur getan wurde, muss es heute eine eigene Didaktik geben, während der Gegenstand, um dessentwillen die pädagogische Bemühung geschieht, als störend oder überflüssig erscheint“. Das war dann die Stelle mit dem tiefen Seufzer und der Frage: Sind das die Folgen einer völlig misslungenen Hochschuldidaktik und/oder einer völlig misslungenen Kommunikation, was Hochschuldidaktik leisten kann und will? Kann man diesen Karren noch irgendwie aus dem Dreck ziehen? Oder ist Klaues Ansicht nur eine Einzelmeinung? Ich fürchte, Letzteres ist nicht der Fall ….

Wo ist meine Metaperspektive geblieben?

Die aktuelle Ausgabe der Zeitschrift für Hochschulentwicklung (März 2013, 8/2) dreht sich um das Thema Qualitätsmanagement. Unter dem Titel „Vertrauen wir auf Qualität? Zwei Jahrzehnte Qualitätssicherung im europäischen Hochschulraum“ haben Oliver Vettori und Bernhard Kernegger (Wien) ein Heft mit insgesamt 15 Beiträgen herausgegeben. Ich habe bisher nur ein paar der Texte gelesen, unter anderem genauer die von Manuel Pietzonka (Hochschulinterne Instrumente zur Qualitätssicherung aus der Sicht von Hochschulangehörigen und aus der Perspektive der Programmakkreditierung: hier) und Nadine Merkator und Andrea Welger (Neue Formen der Qualitätssicherung – dialogische Evaluation in Lehre und Studium: hier).

Qualitäts- und Evaluationsfragen betreffen jeden Hochschullehrer direkt. Das Themenheft hat mich jetzt noch einmal daran erinnert, dass es in den letzten Monaten ein paar Anlässe gab, bei denen mir bewusst wurde, dass ich zu Lehrqualität und Lehrevaluation offenbar ein etwas gespaltenes Verhältnis habe. Das kann man jetzt wörtlich nehmen, denn:

Einerseits beschäftige ich mich aus didaktischer, aber auch forschungsmethodischer Sicht mit dem Thema. Das ist gewissermaßen eine Metaperspektive. Da geht es darum, ÜBER Evaluation bzw. Lehrqualität nachzudenken, die Möglichkeiten der Qualitätssicherung und -entwicklung über Evaluationen abzuwägen etc. Bin ich in dieser Rolle, sage ich ganz klar: Wir brauchen Evaluationen, es ist wichtig, dass Lehre und deren Qualität beobachtet, eingeschätzt und in der Folge verbessert wird. Studierende müssen hierzu ihr Urteil abgeben, sollen sich äußern und Kritik üben, denn nur so kann sich etwas bewegen. Lehre ist ja keine Privatangelegenheit, also muss man darüber sprechen, auch öffentlich, muss Lehrende mit Ergebnissen konfrontieren usw.; und das muss man dann natürlich auch irgendwie organisieren, läuft also nicht ohne eine gewisse zentrale Steuerung ab.

Andererseits bin ich selbst als Lehrende tätig und daher natürlich immer auch „Betroffene“. Das ist dann keine Metaperspektive mehr, die ich innehabe, sondern ich stecke mitten drin: Ich WERDE evaluiert oder werde aufgefordert zu evaluieren, ERHALTE Evaluationsergebnisse und werde (vielleicht) ermahnt, aufgrund dieser Ergebnisse etwas zu verändern. Nun ist meine aktuelle Situation faktisch so, dass wir in unserem Lehrgebiet unsere Lehre selbst evaluieren, die Ergebnisse an alle kommunizieren und selbst entscheiden, was wir damit machen. Ob das für einen Lehrende so ist oder eben anders (nämlich zentrale Instrumente und Auswertung an zentraler Stelle) hängt einfach davon ab, wo man sich gerade befindet. Aber ich kann mich natürlich sehr gut in diese Situation hineinversetzen, dass ich (bzw. meine Lehre) jenseits meiner eigenen Kontrolle evaluiert werde (bzw. wird). Und was spüre ich da? Widerstand! Und ich frage mich: Wo ist meine Metaperspektive geblieben? Warum widerstrebt mir das?

Ich kann diese Fragen nicht direkt beantworten. Ich denke auch, da muss man ein bisschen ausholen. Wissenschaftler, so meine Beobachtung und Überzeugung, sind sehr autonome Wesen – wahrscheinlich müssen sie das auch sein. Wissenschaftler haben einen sehr großen Vorteil: Sie beschäftigen sich mit dem, was sie interessiert – sehr interessiert! Deswegen kann man auch die sogenannte Freizeit von der Arbeitszeit nicht sinnvoll voneinander trennen. Natürlich gibt es „drum herum“ viele (relativ einmütig heißt es: viel zu viele und mehr werdende) Aufgaben, die inhaltsfremd sind. Offenbar empfinden einige Wissenschaftler auch die Lehre als inhaltsfremd. Und dann arbeitet man sie ab – das sind dann mit vergleichsweise hoher Wahrscheinlichkeit keine guten Lehrveranstaltungen. Die Evaluationsergebnisse sind dann mit ebenso hoher Wahrscheinlichkeit schlecht (oder auch nicht, weil es vielleicht eine implizite Übereinkunft zwischen Lehrenden und Studierenden gibt, den Ball einfach flach zu halten – siehe auch hier).

Aber das ist ja keinesfalls bei allen Lehrenden so! Wissenschaftler lehren immerhin IHR Fachgebiet und auch wenn man immer nur zu einem keinen Teil seines Fachgebiets forscht (wo dann wohl das größte Interesse liegt – vielleicht aber auch nur die besten Geldquellen – man weiß es nicht so genau), ist es darin doch eingebettet. Lehre – so meine These – darf ruhig anstrengend sein, aber sie muss einen mit Befriedigung erfüllen und im Großen und Ganzen Freude bereiten. Und das tut sie in der Regel dann, wenn man in Veranstaltungen erfolgreich mit Studierenden ZUSAMMENarbeitet, will heißen: wenn es einem gelingt, Studierende für die Inhalte des Lehr- und Forschungsgebiets zu begeistern oder dafür zumindest erstes Interesse zu wecken und Fragen zu provozieren, wenn man in einen Dialog kommt, wenn Neues entsteht, wenn man dabei auch von den Studierenden lernen kann, wenn man aber auch sieht, wie Studierende besser werden, wie sie etwas annehmen und Eigenes daraus machen. Ich kann mir nicht vorstellen, dass Lehrende nicht auch genau dahin wollen. Und warum sollten dann nicht auch Instrumente willkommen sein, die einem helfen, dahin zu kommen?

Lehre macht aber dann keinen Spaß, wenn die Studierenden (oder die Mehrheit von ihnen) lustlos sind, offen Desinteresse bekunden und nach dem bequemsten Weg suchen, Credit Points zu bekommen. Natürlich: Lust und Unlust in der Lehre sind ein Wechselspiel: Es ist praktisch völlig irrelevant, was da Ursache und was Folge ist. Praktisch relevant ist die Frage, was BEIDE Seiten tun könne, damit Lehre keine Aneinanderreihung von Frusterlebnissen ist, sondern (a) Lernprozesse bei den Studierenden bewirkt, die davon entsprechend profitieren, und (b) den Lehrenden darin unterstützt, das eigene Lehr- und Forschungsgebiet weiter und tiefer zu durchdringen. Was am Ende herauskommt, ist ein Gemeinschaftsprodukt. Klassische Evaluationen aber betrachten gar nicht dieses Gemeinschaftsprodukt, sondern fragen danach, was Studierende im Prozess einer Veranstaltung wahrgenommen haben und wie sie das bewerten. Das ist wichtig, aber nur ein Puzzleteil! Und es für die Lehrqualität wirkungslos, wenn es ein Puzzleteil bleibt.

Eigentlich brauchen wir nicht primär Evaluationen, sondern eine gemeinsame Reflexion der Lehre. Der Text von Merkator und Welger (hier) bringt ein Beispiel für eine „dialogische Evaluation“, die in die Richtung geht, die ich meine. Was mir hier allerdings noch fehlt, ist die Reflexion der Studierenden über IHREN Lernprozess (wie man es in Portfolios anzuregen versucht, was aber auch nicht immer gut gelingt). Die Verbesserung der Lehre hat ja ein Ziel – nämlich, dass Studierende besser lernen, um es mal ganz einfach zu formulieren. Eine hohe Lehrqualität ist so gesehen „nur“ ein Mittel zum Zweck, oder man sollte besser sagen: eine in der Regel notwendige, aber keine hinreichende Bedingung, um den Zweck zu erreichen. Dazukommen muss das Engagement der Studierenden – deren Neugier und Motivation, deren Selbstdisziplin und Mitarbeit, deren kognitive Aktivität und kognitiven Konflikte, deren Interaktion mit dem Lehrenden und anderen Studierenden etc. Und dann kommt es auf das Wechselspiel dessen an, was der Lehrende anbietet, und was die Studierenden damit machen, wie der Lehrende wiederum darauf reagiert etc. Wenn es um die Qualität der Lehre geht, muss man DIESES Wechselspiel im Blick haben, formativ oder auch summativ zu fassen versuchen und es dann gemeinsam bewerten, um daraus Folgerungen zu ziehen. Und das kann man nicht top-down mit einem Online-Fragebogen. Mit letzterem kann man sicher einige wichtige Einschätzungen über einen Studiergang und dessen Elemente erfassen, aber da reden wir dann von anderen Aspekten der Qualität an einer Hochschule.

Beantwortet sich damit meine Frage, wie es dazu kommt, dass ich dem Thema „Evaluation der Lehre“ offenbar gespalten gegenüberstehe? Habe ich eine Antwort auf die Frage, warum Hochschullehrer oft mit Widerstand reagieren, wenn es um Lehrevaluation geht? Na ja, nicht direkt, aber ein Ansatzpunkt wäre ja vielleicht, dass man darüber nachdenkt, wie man Lehrende in ihrer Autonomie ernst nehmen kann und nicht prinzipiell von ausgeht, das man sie und ihre Lehre kontrollieren muss, und wie man gleichzeitig den riesigen Vorteil nutzen kann, dass sie als Wissenschaftler ihre Lieblingsthemen zum Beruf gemacht und daher an sich ein genuines Interesse daran haben, dass ihnen die Lehre selber Spaß macht, was wiederum an ein erfolgreiches Lernen bei den Studierenden gekoppelt ist. Ich bitte die Leser dieses Beitrags, meine Ausführungen eher als „lautes Denken“ zu verstehen – nicht als ausgearbeitetes Konzept!

So wird das nichts

Evaluationen in der Hochschullehre sind heute Standard. Das ist an sich ein relativ neues Phänomen. Als ich studiert habe (na ja, das ist natürlich auch sehr lange her – so in der zweiten 1980er Hälfte) gab es allenfalls eine kurze Feedback-Runde am Ende eines Seminars – vielleicht. Vorlesungen wurden gar nicht bewertet. Auch später, als ich meine eigenen ersten Veranstaltungen angeboten oder daran mitgearbeitet habe, war das Ob und Wie fast ausschließlich Sache des Dozenten. Nur an und zu gab es mal „stichprobenartig“ einen Fragebogen, der seitens des Studiendekanats verteilt wurde – alle paar Jahre.

Heute hat man in Hochschulleitungen eigene Ämter geschaffen, die dafür da sind, die Qualität der Lehre zu „sichern und weiterzuentwickeln“ und damit halt auch – ja, ich nenne es mal so – zu überwachen. Dazu sammelt man Daten. Eine wichtige Datenquelle ist die Evaluation von Lehrveranstaltungen. Das hängt natürlich auch mit den Akkreditierungen zusammen. Was davon also eine aus den Hochschulen quasi von innen kommende Entwicklung und was Reaktion auf Notwendigkeiten von außen ist, lässt sich wohl schwer abschätzen. Aber um das geht es mir an dieser Stelle nicht.

Nein, mir geht es in diesem kurzen Beitrag eher darum, mal zu explizieren, warum ich bei den aktuellen Evaluationen so ein ungutes Gefühl habe. Dabei ziehe ich nicht den Sinn in Zweifel, DASS evaluiert wird. Das ist gut so. Es ist begrüßenswert, dass man über Lehre spricht, dass man versucht, sich ein Bild über die Qualität der Lehre zu machen, und wenn man dann auch noch Anstrengungen unternimmt, diese zu verbessern – wunderbar! Früher war es definitiv NICHT besser. Aber ich glaube einfach nicht (mehr), dass uns das mit den jetzt nahezu etablierten Mitteln, insbesondere nicht mit den klassischen Studierendenbefragungen, gelingt. Warum nicht?

Das erste Problem ist schon mal Folgendes: Kommuniziert wird, dass man Veranstaltungen evaluiert. Aber wenn man sich mal die üblichen Evaluationsbögen ansieht, dann werden der Lehrende, sein Lehrkonzept und dessen Umsetzung, seine Ziele und Zielerreichung und sein Verhalten, vielleicht auch ein paar Rahmenbedingungen erfasst und bewertet bzw. evaluiert. Also da fehlen mir die Lernenden! Ob eine Veranstaltung gelingt oder nicht, hängt nicht nur vom Lehrkonzept und dessen Umsetzung ab, also von dem, was sich der Lehrende überlegt hat und wie er dann handelt. Es hängt ja wohl auch von den Studierenden und davon ab, inwieweit sie sich an dem Angebot beteiligen und wie sie selbst handeln. Niemand bestreitet in der Regel, dass für gelungene Bildungsprozesse die Interaktion zwischen Lehrenden, Lernenden und der Sache, um die es geht, entscheidend ist. Der Lehrende kann daran einen großen Anteil haben, aber die Evaluation allein des Lehrenden bleibt auf halbem Wege stehen, wenn man sich ein Urteil über Lehrveranstaltungen bilden will.

Um sich von einer Veranstaltung und deren Qualität ein Bild machen zu können, das einigermaßen valide ist, müsste man an sich ganz selbstverständlich auch die Studierenden und deren Handeln in die Evaluation mit einbeziehen: Was bringen Studierende von sich aus in die Veranstaltung ein? Wie beteiligen sie sich, wie bereiten sie etwas vor und nach, wie unterstützen sie sich gegenseitig etc.?

Es ist völlig in Ordnung, dass Studierende ein Urteil über einen Lehrenden abgeben. Aber auch Studierende müssten (als Gruppe) in dem Sinne „bewertet“ werden, wie sie zum Erfolg einer Veranstaltung beitragen. Das könnte der Lehrende machen (analog zur Lehrenden-Bewertung seitens der Studierenden); besser wäre sicher ein externes Urteil, was aber freilich organisatorische Probleme aufwirft. Ebenfalls sinnvoll wäre es, dass Studierende von Zeit zu Zeit untereinander die Dynamik einer Veranstaltung und das gemeinsame Handeln einschätzen. Das heißt aber dann letztendlich: Man muss miteinander ins Gespräch kommen! Und das ist etwas ganz anderes, als Kreuzchen auf Fragebögen zu machen.

Ja, ich weiß, was jetzt für ein Einwand kommt – die Anonymität ist wichtig. Das sehe ich auch – zumindest so lange wir noch Prüfungen mit Rechtsfolgen haben. Ein Hindernis für gegenseitiges transparentes Feedback dürfte außerdem sein, wenn Evaluationen vorrangig gemacht werden, damit Akkreditierungsagenturen Ruhe gebe, wenn sie also vor allem formal das Signal aussenden sollen, dass man ja etwas für die Qualität der Lehre tut. Unter so einem Vorzeichen ist es schwierig, eine Kultur aufzubauen, die dergestalt ist, dass alle ein echtes Interesse an guter Lehre haben und jeder (!) seinen Teil dazu beiträgt: Lehrende und Studierende.

Aber ich fürchte, die Tendenz geht in eine andere Richtung: immer mehr Evaluationen – parallel dazu immer weniger Rücklauf, weil Studierenden freilich schon langsam die Nase voll davon haben, Fragebögen auszufüllen; immer mehr Daten – parallel dazu immer weniger Ideen, was man damit eigentlich genau anfangen soll; immer mehr zentrale Vorgaben – parallel dazu immer weniger gegenseitiges Vertrauen und Lust, sich an diesen Routinen zu beteiligen.

Also ich weiß nicht – so wird das doch nichts, oder?

Ernst gemeinte Exzellenz?

„Datenqualität als Schlüsselfrage der Qualitätssicherung von Lehre und Studium an Hochschulen“ – so lautet der Titel einer bereits 2008 online veröffentlichten Dissertation von Philipp Pohlenz, auf die ich vor kurzem gestoßen bin. Die Arbeit gibt einen guten Überblick über Qualitätsmanagement und Evaluation an Hochschulen und thematisiert vor allem die Gütekriterien der verwendeten Verfahren und resultierenden Ergebnisse. Online ist die Arbeit hier abrufbar.

Die Ergebnisse der Studie von Pohlenz lassen (was jetzt nicht so erstaunlich ist, aber immerhin nicht als Polemik abgetan werden kann) erhebliche Zweifel vor allem an der Validität studentischer Qualitätsurteile aufkommen – jedenfalls verglichen mit den Intentionen der Evaluierenden und im Zusammenhang mit der Art der Nutzung dieser Daten für Hochschulentwicklung und -politik! Das Interesse der Studierenden, die Studienphase, in der sie sich befinden, aber auch die Infrastruktur des Hochschulortes (um nur ein paar Beispiele zu nennen) beeinflussen das Urteil über Lehre und Studium erheblich und schränken die Aussagekraft entsprechend ein. Aber sogar die meist als objektiv geltenden Hochschulstatistiken halten, so eine Erkenntnis der Arbeit, nicht immer, was sie versprechen. Pohlenz kommt zu dem Schluss, dass vor allem die in der Praxis bevorzugten einfachen Evaluationsverfahren mit simplen Indikatoren zahlreichen Fehlerquellen ausgesetzt sind.

In den ersten Teilen der Arbeit werden auch andere Funktionen von Evaluationen thematisiert als z.B. die Leistungsbewertung von Hochschulen oder von Hochschullehrern (z.B. die Partizipation der Studierenden). Dies ist aus meiner Sicht ein ganz wesentlicher Punkt, der dann aber doch wieder in den Hintergrund rückt.

Das Abschluss-Statement in der Dissertation lautet: „Evaluation steht vor der Aufgabe, Routinen zu entwickeln, die der Vielgestaltigkeit der Qualität der Lehre sowie der Realität des Hochschulalltages gerecht werden. Nur so kann sie den Anspruch darauf erheben, als Instrument der Hochschulentwicklung ernst genommen zu werden. Insofern dies den Einsatz komplexer und verschiedene Ansätze versöhnende Verfahren und damit einen stärkeren Mitteleinsatz erfordert, ist das Hochschulwesen insgesamt gefragt, inwieweit die vielfach verkündete Formel von der Entwicklung von Exzellenz durch qualitätssichernde Verfahren ernst gemeint und mit der Bereitschaft verknüpft ist, die entsprechend notwendigen Investitionen in die Zukunft zu tätigen.“ Dem kann man nur zustimmen …

Wo sind die kreativen Intellektuellen?

Seit einigen Tagen liegt die Veröffentlichung der Studie „Der Wandel des Hochschullehrerberufs im internationalen Vergleich” auf meinem Schreibtisch, die ich endlich gelesen habe. Mandy hat (hier) bereits ausführlicher einige – speziell für Fragen der Lehre interessante – Resultate zitiert (sie war schneller als ich ;-)), was ich von daher an der Stelle nicht zu wiederholen brauche. Seltsam ist, dass zwischen der Veröffentlichung und der Befragung selbst vier Jahre liegen. Ich vermute, dass sich in diesen vier Jahren wieder einiges verändert hat. In der Summe kommt die Studie beim Thema Lehre zu dem Schluss, dass deutsche Hochschullehrer im internationalen Vergleich verschiedene Defizite aufweisen und allem voran von den digitalen Medien zur Verbesserung der Lehre eher wenig wissen wollen – also: sehr wenig! Auch die Entwicklung von Lehrmaterialien scheint nur eine Minderheit der Lehrenden an deutschen Hochschulen zu interessieren. Innovationsfreude in Sachen Studiengangentwicklung – so die Interpretation der Autoren der Studie – sei wenig vorhanden. Außerdem ein Ergebnis: Allenfalls ein Drittel der Hochschullehrer sehen einen Einfluss von Lehrevaluationen auf ihre Lehre in dem Sinne, dass diese zu Verbesserungen führen. Okay – „nur“ ein Drittel, aber ich war fast überrascht, dass es immerhin ein Drittel ist: So wie viele Lehrevaluationen erfolgen – mit oft unpassenden standardisierten Items und in Form einer Zwangsmaßnahme – finde ich dieses Ergebnis fast schon positiv.

Überhaupt sollte man den Zusammenhang zwischen Lehrqualität und der Art der Evaluation genauer betrachten. Meiner Ansicht nach wirken sich Evaluationen, wenn sie als zentralistisches Kontrollinstrument verstanden und durchgeführt werden, eher kontraproduktiv auf die Lust der Lehrenden aus, „innovationsfreudiger“ zu werden – was ja die Studie als Mangel feststellt. In manchen Unis wähnt man sich schon im Besitz eines „Konzepts zur Lehrqualität“, wenn man sich für ein technisches Erhebungsinstrument entschieden hat. Auf den Trend, hier mehr mit Vorgaben statt mit Vertrauen auf die Expertise der Hochschullehrer zu arbeiten, weisen auch die Autoren der Studie hin, wenn sie auf folgende Veränderung der Rahmenbedingungen für Hochschullehrer aufmerksam machen: „Mehr Dispositionsspielräume für die einzelnen Hochschulen gegenüber staatlichen Vorgaben, mehr Evaluation, ein machtvolleres Hochschulmanagement, mehr Anreiz- und Sanktionsmechanismen, sowie stärkere Erwartungen, die Qualität, Relevanz und Effektivität der wissenschaftlichen Arbeit zu demonstrieren.“ Wer hier ein gewisses Unbehagen spürt, dem kann ich die Abschiedsvorlesung von Heiner Keupp aus dem Jahr 2008 (also einem Jahr nach der Befragung) empfehlen, der es gut versteht, dieses Unbehagen auf den Punkt zu bringen – allem voran mit dem Hinweis, dass die Universität als Teil eines „marktradikalen Gesellschäftsmodells“ immer mehr „die Figur des kreativen Intellektuellen“ ersetzt, „der seine gedankliche Unabhängigkeit gerade dadurch erweist, dass er nicht von fremdgesteuerten Geldströmen abhängig ist“ (Keupp, 2008, S. 8). Vielleicht hätte man in die Studie zum Hochschullehrerberuf auch eine Frage in diese Richtung einbauen können – nämlich, ob und inwieweit sich Hochschullehrer noch als unabhängig empfinden und an einem Ort wähnen, der „gesellschaftliche Verantwortung übernimmt“ und an dem „die wichtigsten Zukunftsthemen unserer globalen Welt“ (Keupp, 2008, S. 13 f.) öffentlich und kritisch diskutiert werden.

Rettungsanker zur Evaluation

Eher spontan aus einem praktischen Anlass heraus ist ein neuer (allerdings relativ kurzer) Studientext zum Thema Evaluation entstanden. Im Herbst 2010 hatte ich ein Evaluationsseminar (für Studierende im zweiten Studienjahr) angeboten, das mit drei „Input-Sitzungen“ (und einem Lektüre-Reader im Hintergrund) begann, bevor die Studierenden selbst ein eigenes (kleines) Evaluationsprojekt durchführen sollten. Mein Eindruck (der sich dann in der Seminarevaluation bestätigt hat) war, dass meine mündlichen Ausführungen inklusive Folien (und Reader) nicht zu dem gewünschten mentalen „Grundgerüst“ geführt hatten, das mir aber für die eigenen Evaluationsversuche der Studierenden notwendig erschien. Zur gleichen Zeit saß ich für ein Projekt an der Sichtung aktueller Evaluationsliteratur, sodass ich beides gut zu einem eigenem Text verbinden konnte (eine Vorversion haben die Studierenden dann VOR Ihren Projekten erhalten). Den nun in einer offiziellen Version fertigen Studientext stelle ich – wie die Studientexte zum Wissensmanagement und zum Didaktischen Design – wieder online und damit zur Nutzung in der Lehre gerne zur Verfügung: nämlich hier.

Der Studientext zur Evaluation erwies sich im Rahmen des genannten Seminars als hilfreich. Die Kürze mag auf der einen Seite etwas gefährlich sein (viele Dinge werden logischerweise nur angerissen und/oder nicht in der Differenziertheit dargelegt, in der man sie in der wissenschaftlichen Literatur findet). Auf der anderen Seite zeigte der Text seine Stärke als „Rettungsanker“ im besagten Seminar, sodass ich hoffe, dass er anderen auch noch dienlich sein kann.

Die schwierige Qualitätsfrage

Verspätet möchte ich auf einen Preprint hinweisen zum Thema „Evaluation und Qualitätssicherung beim E-Learning“ – verspätet deshalb, weil ich dachte, da kämen noch Verbesserungswünsche. Der Text mit dem Titel „Kontinuierliche Qualitätsentwicklung: Von der Präsenz zur E-Lehre“ ist zusammen mit Alex und Silvia entstanden und versteht sich vor allem als Praxisbeispiel im neuen Buch von Horst Otto Mayer und Willy Kriz, das eben erschienen ist: Evaluation von eLernprozessen.

Ich werden diesen Herbst an der UniBwM mehrere Evaluationsveranstaltungen anbieten, sodass diese Neuerscheinung gerade rechtzeitig kam. Bei der Recherche zum Thema ist mir nämlich aufgefallen, dass das Interesse an Evaluationsfragen im Kontext des Lehrens und Lernens mit (digitalen) Medien offenbar schon mal größer war.

Evaluation_Kurs_QSF_2010

Endlich: Kooperation mit Intel dokumentiert

Bereits gegen Ende 2008 habe ich (hier) darauf verwiesen, dass unsere vierjährige Kooperation mit Intel (Intel® Education) im Zusammenhang mit Blended Learning in der Lehrerbildung zu Ende gegangen ist. Kurz darauf haben wir uns entschlossen, diese Zusammenarbeit doch noch einmal abschließend und kompakt zu dokumentieren. Im März 2009 waren wir fertig. Leider hat es dann mit Verlagssuche, Satz und Korrekturschlaufen doch noch lange gedauert, aber jetzt ist das kleine Buch fertig:

Reinmann, G., Florian, A., Häuptle, E. & Metscher, J. (2009). Wissenschaftliche Begleitung von Blended Learning in der Lehrerfortbildung. Konzept, Methodik, Ergebnisse, Erfahrungen und Empfehlungen am Beispiel „Intel® Lehren – Aufbaukurs Online“. Münster: MV-Wissenschaft.

Man kann es für einen überschaubaren Preis bestellen (hier), aber auch online (hier) lesen. Unser langjähriger Kooperationspartner hat eine Veröffentlichung finanziert, die auch einen Open Access bietet. Darüber sind wir natürlich sehr froh. Wir hoffen, dass die gemachten Erfahrungen auch für andere Kooperationsprojekte nützlich sind.