Ist das nicht ganz erstaunlich?

Was muss man tun, um bekannt zu werden? Einen Wettbewerb veranstalten. Allerdings muss es sich schon lohnen. Mal eben 5.000 Euro (oder gar nur eine ideelle Anerkennung) auszuschreiben, lockt heute keinen mehr hinter dem Ofen hervor. 100.000 Euro sollten es schon mindestens sein – jedenfalls hatte auf diesem Weg der Medidaprix viele Wissenschaftler und Lehrende an Hochschulen zehn Jahre lang (bis 2009: hier die letzte Runde) dazu bewegt, an diesem Wettbewerb teilzunehmen. Klar, dass bei 250.000 Euro (insgesamt) noch mehr Leute aktiviert werden (da immerhin auch mehr gewinnen können) – selbst dann, wenn es eine ganze Reihe von Bedingungen gibt, die man einhalten muss. Aktuell ist dies der Fall beim MOOC Production Fellowship von iversity: Ich wollte mir einen Überblick verschaffen, welche MOOC-Veranstaltungen da eingereicht worden sind. Aber es sind so viele (leider kann ich nirgendwo erkennen, wie viele genau), dass ich es nicht geschafft habe, diese alle anzusehen. Mich versetzen zwei Dinge nun wirklich in Erstaunen:

Das erste Erstaunen ist positiver Art. So viele Professoren, Juniorprofessoren und Privatdozenten (und nur die dürfen einreichen – warum eigentlich?) zeigen, dass und wie sie sich Gedanken um die Lehre machen; man findet eine Fülle an Kursideen und interessanten Themen und hat dabei das Gefühl, dass die alten Klagen über verstaubte Hochschullehre, die sich den digitalen Medien verschließt, der Vergangenheit angehören. Und es ist eine tolle Sache, dass sich da einem Ort Leute mit ihren Lehrvorschlägen versammeln, weil man davon eine Menge lernen kann. Nur schade, dass man 250.000 Euro braucht, damit Lehrende in dieser Form ihre Ideen öffentlich machen und damit einen gegenseitigen Austausch ermöglichen.

Das leitet mich über zum zweiten Erstaunen und das ist eher negativ gefärbt: Es geht mir nicht um die 250.000 Euro. Natürlich wirken (für den Einzelnen gesehen) 25.000 Euro motivierend und die nimmt man im besten Fall mit – würde ich auch, ist ja wirklich eine ganze Menge Geld! Nein, mich erstaunt, dass so viele mitmachen, obschon die Bedingungen des Wettbewerbs (z.B. im Vergleich zum Medidaprix) recht eng gesteckt sind (siehe hierzu die Guidelines): (a) Inhalte müssen in kurzen Lehrsequenzen gegliedert sein – und als Videoinhalte präsentiert werden (mit Ergänzungsmöglichkeiten), (b) im Anschluss an jede kurze Lehrsequenz muss eine Interaktionsmöglichkeit für Studierende kommen – am besten ein Quiz; (c) es sind zwar auch andere Interaktionsformen möglich, aber: sie sollen sich möglichst direkt in iversity abbilden lassen. So viele kreative Köpfe lassen sich in dieser Form vorgeben, wie sie ein Lernangebot zu konzipieren und anzubieten haben? Ist das nicht ganz erstaunlich?

Ich lerne daraus: Man nehme richtig viel Geld, sage ganz genau, wo es lang geht und viele folgen einem … Ja, das ist es vielleicht etwas übertrieben – gebe ich zu. Aber mal ehrlich: Warum ist es denn nicht möglich, dass wir uns an unseren Hochschulen um kreative Lehre, neue Ideen und einen fundierten Austausch bemühen, ohne dass wir dafür Wettbewerbe, Rankings und hohe Preisgelder brauchen und – das ist jetzt aus meiner Sicht das Entscheidende – uns dabei weitgehend vorschreiben lassen, wie wir etwas zu gestalten haben?

Ich habe nichts gegen MOOCs – im Gegenteil: Ich finde es hervorragend, dass da jetzt so viel experimentiert wird. Das ist EIN interessantes Format. Und wie gesagt: Wenn man sich die eingereichten MOOC-Beispiele anschaut, dann ist das beeindruckend, was man da sieht. Ich will hier wirklich niemanden diskreditieren! Vielleicht geht es auch einfach nicht anders. Aber ich finde, man sollte mal über den Mechanismus nachdenken, der da im Hintergrund zu wirken scheint und in didaktischen Engführungen münden kann, vor denen Rolf Schulmeister bereits vor vielen Jahren im Zuge der Einführung von Lernplattformen gewarnt hat.

Oh – jetzt weiß ich wieder, warum ich Pädagogik studiere

„Bepflanzung und gutes Raumklima inkl. Farben, ein mobiles Mobiliar, ein Touchscreen sowie eine Projektionsmöglichkeit aus allen Punkten des Raumes“ – so die relativ übereinstimmende Wunschliste von Studierenden, die Martin Ebner (mit Team) 2012 zum Thema Lehr-Lernraum in Workshops hat nachdenken lassen. Nun ist an der TU Graz so ein Raum versuchsweise eingerichtet worden (Text und Bilder hier).

Leider ist das an vielen Hochschulen nicht Realität: Wenn ich an Mobiliar in Unis denke, fallen mir (aktuell z.B.) unglaublich schwere Stühle und Tische ein, bei denen man sich zweimal überlegt, ob man auch nur Kleinigkeiten umstellt (die müssen da irgendwo Blei reingegossen haben). Oder man ist mit Hausmeistern und anderen „Raumwächtern“ konfrontiert, die einen bereits als potenziellen Vandalen im Visier haben, wenn man mal die Sitzordnung ändert.

Ab und zu mache ich es dann aber doch: Ein großer Effekt entsteht bereits, wenn man die Tische entfernt (was natürlich voraussetzt, dass die Studierenden nicht zwingend mitschreiben müssen). Das irritiert erfahrungsgemäß erst einmal stark – schon allein deshalb, weil man jetzt nicht weiß, wohin mit dem Kaffeebecher und der Wasserflasche (auch die Brotzeit kann man schlecht auspacken), und es ist schwerer, hinter dem geöffneten Notebook zu verschwinden. Überhaupt: Das ist erst mal ungemütlich – ungewohnt. Dumme Sprüche („oh – jetzt weiß ich wieder, warum ich Pädagogik studiere“) muss man freilich auch hinnehmen. In der Regel lohnt es sich trotzdem: Die Aufmerksamkeit ist anders fokussiert – der Tisch als Barriere zwischen Studierenden und Lehrenden ist weg. Es entsteht mehr Nähe, die natürlich (vor allem wenn sie ungewohnt ist) auch abgelehnt werden kann. In jedem Fall zeigen die meisten Personen in solchen Situationen mehr Präsenz – und die wünscht man sich als Lehrender ja schon (was gibt es Schlimmeres als in völlig abwesende Gesichter zu blicken).

Was ich auch nicht schlecht fände, wären Stehtische. Sitzt man nicht ohnehin genug? Ich selber stehe als Lehrende zwar die meiste Zeit – aber die Studierenden: Sitzen sie nicht ohnehin zu viel? Also wären auch Stehtische an den Wänden ganz gut, z.B. um sich da dann Notizen zu machen, oder auch mal im Netz etwas nachzuschauen etc. Auf Pflanzen könnte ich dagegen verzichten (wer denkt immer dran, die auch zu gießen?), aber mehr Farben: Ja, auf jeden Fall! Überhaupt: Etwas mehr Ästhetik – das Auge lernt ja mit, oder?

Man muss auch dran glauben

Peter Baumgartner und Claudia Bremer haben es bereits gepostet: Es wird, nachdem die „Zeitschrift für E-Learning“ (ZEL) in der gewohnten Form aus unserer Sicht nicht mehr sinnvoll war, wieder eine deutschsprachige Zeitschrift geben, die sich dem Themengebiet „Lehren, Lernen, Bildung und digitale Technologien“ widmet. Unter dem Akronym iTeL – steht für „Interdisziplinäres Journal für Technologie und Lernen“ – wollen wir künftig noch interdisziplinärer agieren und vor allem eine Open Access-Publikationsmöglichkeit mit neuem Peer Review-Verfahren auf die Beine stellen. „Wir“ sind ein (im Vergleich zur ZEL) erweiterter Kreis von Wissenschaftler/innen, die sich für das neue Vorhaben begeistern.

Ich möchte jetzt nicht wiederholen, was Claudia und vor allem, etwas ausführlicher, Peter schon über die bisherigen Entwicklungen und noch anstehenden Aufgaben gesagt haben. Am besten auf Peters Blog (hier) und dem GMW-Blog (hier) nachlesen.

Meine persönliche Hoffnung auf einen Erfolg von iTeL schöpfe ich vor allem aus dem größeren Kreis der beteiligten Personen, denn: Mehr Mitdenker schaffen einfach mehr, können sich gegenseitig besser Ideen zuspielen und unterstützen, aber auch Spitzen in der Arbeitsbelastung angemessener ausgleichen. Wichtig erscheint mir, von der dahinterstehenden Idee überzeugt zu sein, also davon, (a) dass es sich AUCH lohnt, Deutsch zu publizieren, (b) dass es trotz aller damit verbundener Schwierigkeiten möglich ist, AUCH im Open Access-Format eine hochwertige Zeitschrift zu machen, und (c) dass es NEBEN der Begutachtung zum Zwecke der Selektion noch so etwas wie eine Feedbackkultur in der wissenschaftliche Auseinandersetzung um Theorie, Empirie und Entwicklung und deren Beitrag für Wissenschaft und Praxis geben kann – auch wenn damit der Aufwand steigt. Ja, ein bisschen dran GLAUBEN muss man da schon, sonst wird es nichts – sonst holen einen die vorweggenommenen „Wenns und Abers“ schnell wieder ein, sonst gibt man bei den ersten Hürden (die sicher kommen werden) zu rasch wieder auf.

Ich ergänze also Peters „Unterstützt uns!“ durch ein „Glaubt dran!“ 😉 (auch wenn es LEIDER keine Sicherheiten gibt)

Schwächen kaschieren statt sie beheben

Heute hat in München der Aktionsrat Bildung ein Gutachten vorgestellt, das sich mit dem Akkreditierungswesen in der deutschen Hochschullandschaft befasst. Der Titel des Gutachtens fasst bereits die Kernbotschaft zusammen: „Qualitätssicherung an Hochschulen: von der Akkreditierung zur Auditierung“. Das 50-seitige Gutachten kann hier abgerufen werden und es empfiehlt sich die Lektüre – nicht nur dann, wenn man selbst als Hochschullehrer oder anderweitig Beteiligter an Akkreditierungsverfahren mitwirkt(e). In einer Pressemeldung zur Vorstellung des Gutachtens (hier) wird der Vorsitzende des Aktionsrats Bildung, Dieter Lenzen, wie folgt zitiert: „In den zurückliegenden Jahren vermehrten sich die Klagen aus den Hochschulen über die Akkreditierungsverfahren im Hinblick auf ihren bürokratischen und finanziellen Aufwand. Es bedarf daher eines raschen Reformprozesses mit dem Ziel, staatliche Genehmigungsverfahren und Detailkontrolle durch qualitätsorientierte Beratung von Auditierungsagenturen zu ersetzen. Sie stellen Mindeststandards und mehr Eigenverantwortung der Hochschulen im Qualitätsmanagement sicher.“

Das Gutachten skizziert die historische Entwicklung des deutschen Akkreditierungsverfahrens und macht auf ungünstige Analogiebildungen, aber auch auf die verfassungsrechtlich unklaren Punkte der aktuellen Akkreditierungspraxis aufmerksam. Relativ detailliert werden zudem die Probleme dargelegt, die nicht nur in den Kosten und im bürokratischen Aufwand liegen, sondern auch darin, dass die Unterschiede in Vorstellungen von Qualität nicht ins Bewusstsein gerückt und auf diesem Wege die eigene Logik und die Besonderheiten von Hochschulen vernachlässigt werden. Auf mehreren Seiten (S. 53-56) gehen die Autoren des Gutachtens auch auf die enormen motivationalen Folgeschäden der Akkreditierung unter den Beteiligten ein.

Dass man (und das gehört zum Motivationspart) in den gängigen Akkreditierungsverfahren alle Energie darauf legt, (a) möglichen Einwänden zuvorzukommen, (b) vorgegebene (vor allem formale) Standards zu erfüllen, gegen die man als Wissenschaftler und Hochschullehrer womöglich begründbare Einwände hat, (c) Schwächen eines Studiengangs geschickt verpackt, damit sie nicht auffallen u. ä., kann ich aus eigener Erfahrung nur bestätigen. Das Verfahren zu bestehen, wird wichtiger, als die Lehre faktisch zu verbessern. Das ist gegenüber den Studierenden, gegenüber sich selbst und gegenüber der Wissenschaft, für und in der man tätig ist, schon ein ganz klarer Verrat. Sicher variiert die Ausprägung dieser Probleme, und es mag Verfahren geben, in denen dies nicht so ist (also kein Verrat stattfindet). Es bleibt aber mindestens die Frage, ob die Kosten gerechtfertigt sind, denn wenn Studiengänge ohne Nachbesserungen ein „Qualitätssiegel“ erhalten, dann hat die dahinter stehende Hochschule bzw. Fakultät und Fächergruppe offenbar ihre Aufgabe gut erledigt, aber genau das könnten an sich auch die dort Studierenden und Lehrenden selbst beurteilen.

Von daher finde ich die Vorschläge des Aktionsrats Bildung alles in allem gut. Ob man mit Qualitätsaudits (und den dahinter stehenden geforderten Institutionen) keinen unangemessenen bürokratischen Aufwand erzeugt, kann ich nicht beurteilen; eine Gefahr in diese Richtung kann freilich jedes Verfahren bergen. Überzeugend finde ich jedenfalls den Hinweis, dass es an der Zeit ist, den Fokus auf die Verbesserung der Qualität in der Lehre zu legen und nicht auf die bloße Legitimierung und damit (unweigerlich) verbundene Tendenz, Schwächen zu kaschieren statt sie zu beheben.

Aus dem Reich der Unwissenschaftlichkeit befreien

Gestern war ich zur Eröffnung einer neuen Graduiertenschule an der Fakultät für Erziehungswissenschaft, Psychologie und Bewegungswissenschaft (EPB) an der Universität Hamburg eingeladen (Web-Auftritt hier). Über die Anfrage bzw. Bitte vor einigen Monaten, mich an dieser Eröffnung mit einem Vortrag zu Design-Based Research zu beteiligen, habe ich mich fast ein wenig gewundert, aber auch gefreut: Es ist keine Selbstverständlichkeit, dass an diesem Forschungsansatz explizit Interesse bekundet wird, und wenn das dann noch dazu im Kontext der Nachwuchsförderung der Fall, ist das besonders erfreulich. Daher habe ich natürlich zugesagt!

Ich finde es äußerst schwer, zu einem methodischen Thema dieser Art einen „Vortrag“ zu gestalten. An sich bräuchte man da eine Workshop-Reihe inklusive mehrerer Beispiele. Ich hatte zwar im Vortrag eine Reihe von Fragen und Diskussionsphasen vorgesehen (hier die dazugehörigen Folien: DBR_Vortrag_Hamburg_April13) und mit einer viel kleineren Gruppe gerechnet, die sich wahrscheinlich stärker hätte aktivieren lassen. Hätte ich gewusst, dass so viele kommen, hätte ich es wahrscheinlich etwas anders aufgezogen. In jedem Fall aber ist der Beitrag mit offenbar großem Interesse verfolgt worden und auf der anschließenden Poster-Präsentation (Poster zu Promotionsvorhaben) hatte ich die Möglichkeit, mich noch mit mehreren Doktoranden zu unterhalten. Dabei habe ich mitgenommen, dass einige zwar „Entwicklungsanteile“ in ihren Arbeiten vermuten bzw. haben, aber nicht so recht wissen, welchen Stellenwert sie diesen geben dürfen (damit es „wissenschaftlich bleibt“) und wie sie diese auch angemessen darstellen können.

Meinen auch kritischen Bemerkungen während des Vortrags zu immer noch mangelnden Förderinitiativen für entwicklungsorientierte Forschungsvorhaben haben zwei (Nicht-Nachwuchs-)Wissenschaftlern heftig widersprochen – mit Verweis auf BMBF-Programme und die neue DFG-Förderlinie zum Transfer von Ergebnissen aus der Grundlagenforschung. Weil ich ein bisschen zu polemisch geworden bin, habe ich diesen Widerspruch wahrscheinlich selbst provoziert. Ich räume auch gerne ein, dass es natürlich immer irgendwie möglich ist, auch für ausgefallene Projektideen und solche, die Entwicklungsanteile haben, eine Finanzierung zu finden, und dass auch immer wieder Bemühungen sichtbar werden, die „Nutzung von Forschungsergebnissen in der Praxis“ zu unterstützen. Das geht aber letztlich an dem etwas vorbei, worum es mir geht, nämlich: den Prozess der Entwicklung an sich aus dem Reich der „Unwissenschaftlichkeit“ zu befreien und dies auch so zu tun, dass sich Nachwuchswissenschaftler an Entwicklungsarbeiten herantrauen und Unterstützung erfahren. Design Research kann und soll andere Forschungsansätze nicht (!) ersetzen; sie kann und soll – so meine Auffassung – aber ein zusätzlicher Ansatz in der Landschaft der Bildungsforschung sein.

(An der Stelle verweise ich noch einmal auf den Reader zur Entwicklungsforschung – siehe hier. Zudem möchte ich ankündigen, dass ein Beiheft der Zeitschrift für Berufs- und Wirtschaftspädagogik in Vorbereitung ist, herausgegeben von Dieter Euler und Peter Sloane; in diesem werde ich einen Beitrag speziell zur Entwicklungsphase im Design Research-Prozess leisten).

Folgen einer völlig misslungenen Hochschuldidaktik?

Gestern habe ich in der Online-Ausgabe der FAZ einen Artikel von Magnus Klaue gelesen – der wurde schon vor einem Monat veröffentlicht. Unter dem Titel „Lebenslanges Feedback“ behandelt der Beitrag genau genommen drei Themen in einem (Evaluation – Kompetenzorientierung – Hochschuldidaktik), vermengt diese auch und hat bei mir beim Lesen an einigen Stellen zustimmendes Nicken, an anderen ungläubiges Kopfschütteln und am Ende einen tiefen Seufzer bewirkt. Aber der Reihe nach:

Den Anfang des Textes macht ein kritischer Blick auf die allgegenwärtige Evaluation (zu diesem Thema kann ich auch einen Text von Gunter Dueck empfehlen). Interessanterweise wird die Evaluation hier mit der Prüfung verglichen und dargelegt, dass und warum Evaluationen (anders als Prüfungen) vordergründig auf flache Hierarchien setzen, am Ende aber (wie auch Dueck meint) zu einer „totalen Evaluation“ führen und alle unter Kontrolle stellen. Hier bin ich noch nickend mitgegangen – da ist was dran. Stutzig bin ich allerdings bereits beim Übergang zum zweiten Thema geworden, nämlich zum Thema „Kompetenzorientierung“; an diesem Übergang wird „das Evaluierungswesen als Symptom einer Pädagogisierung des Wissenschaftsbetriebs“ bezeichnet. Wieso? Ich habe trotzdem weitergelesen. Klaue geht im weiteren Verlauf auf den Verlust der Gegenstände im universitären Lehr-Lernbetrieb ein. Diese Passagen kann ich ebenfalls gut nachvollziehen und haben mich an eigene Blogbeiträge (z.B. hier) und an einen SZ-Beitrag von Christoph Türcke erinnert. Aber auch da taucht schnell wieder die Pädagogik als Schuldige auf: Dass leerer Pluralismus in Lehrveranstaltungen den Meinungsstreit und objektloses Lernen des Lernens (für den Erwerb beliebig einsetzbarer Kompetenzen) das exemplarische Lernen ersetzen, haben wir, so Klaues Ansicht, der Pädagogik zu verdanken. Ich vermute, er meint die Didaktik (und nicht die Pädagogik) bzw. genauer: die Hochschuldidaktik. Das jedenfalls wird dann am Ende des Beitrags klar, an dem er die „Totalisierung der Pädagogik“ beklagt: „Für alles, was früher von Studenten und Lehrenden in spontanem Zusammenspiel einfach nur getan wurde, muss es heute eine eigene Didaktik geben, während der Gegenstand, um dessentwillen die pädagogische Bemühung geschieht, als störend oder überflüssig erscheint“. Das war dann die Stelle mit dem tiefen Seufzer und der Frage: Sind das die Folgen einer völlig misslungenen Hochschuldidaktik und/oder einer völlig misslungenen Kommunikation, was Hochschuldidaktik leisten kann und will? Kann man diesen Karren noch irgendwie aus dem Dreck ziehen? Oder ist Klaues Ansicht nur eine Einzelmeinung? Ich fürchte, Letzteres ist nicht der Fall ….

In die schönen Räume hochdienen

Raumvergabe an Universitäten – das ist an fast allen mir bekannten Unis ein echtes Problem: Zum Kern des Problems könnte gehören, dass viele hier ein Eldorado für geheime Absprachen oder verborgene Regeln erahnen oder vermuten. Aber das stimmt natürlich nicht. Klaus Arnold von der Uni Trier stellt (in einem Artikel in der duz) klar: „Die Planung erfolgt nach rationalen Kriterien, und alle Dozenten haben die gleiche Chance auf ihre Wunschräume und Wunschtermine. Los geht es mit der Zeitplanung der einzelnen Studiengänge. Jeder gibt erst einmal an, wann er denn gerne seine Kurse halten will. Aber schon bald tauchen die ersten Probleme auf: ´Nein, Herr Kollege, der Dienstagnachmittag, das tut mir leid, das geht wirklich nicht, das ist schon seit vielen Jahren mein Vorlesungstermin.´ Also kein Dienstagnachmittag, dann vielleicht Mittwochnachmittag. ´Nein, Herr Kollege, der Mittwochnachmittag muss freigehalten werden, da sind doch die Gremien.´ Wie konnte ich das vergessen, an fast jeder Uni ist der Mittwochnachmittag streng geschützt für das kollektive Sitzfleisch-Training. Da finden die Institutskonferenzen statt, es tagen die Fachbereiche, der Bologna-Arbeitskreis, die Projektgruppe Internationalisierungs-Audit, der Prüfungsausschuss und nicht zuletzt die Campus-Verschönerungskommission. Nun gut, dann der Freitagnachmittag, da sind die meisten Studierenden zwar schon ins Wochenende gestartet, aber wenn es nicht anders geht. ´Nein, Herr Kollege, da finden die Blockseminare statt – Sie bekommen jetzt den Montagnachmittag für die Vorlesung und für Ihre anderen Kurse haben wir Ihnen den 7-Uhr-Slot zugeteilt. Sie haben ja kleine Kinder, da müssen Sie doch sowieso früh raus.´“

Wenn man also weit neben seinen Wunschterminen regelmäßig in alten und muffigen Seminarräumen sitzt, während andere in renovierten High-Tech-Zimmern residieren, kann einen der Glaube an eine gerechte, auch noch durch die Technik fair gestaltete Raumvergabe schon mal verlassen. Und dann kommen die Zweifel und Fragen wie sie Klaus Arnold stellt: „Hat das Programm mit seinem Zufallsgenerator wirklich alles in der Hand oder nicht vielleicht doch die Menschen in der Verwaltung, die das Ganze steuern? Na klar – auf das Beziehungsmanagement kommt es an! Ich schicke am besten der Dame aus der Raumvergabe so als kleine Aufmerksamkeit …? Oder muss man das Problem eher technisch angehen und sich irgendwie in das Programm hacken? Auffällig ist es schon, dass die Informatiker all ihre Veranstaltungen im strahlendweißen neuen Hörsaalgebäude haben. Vielleicht gilt auch das Senioritätsprinzip und der junge Dozent muss sich erst über lange Uni-Jahre mit vielen Vorlesungen und Seminaren in die schönen Räume hochdienen? Oder hängt es an den eingeworbenen Drittmitteln? Oder stehe ich auf der roten Liste des Präsidenten, weil ich den Dies Academicus geschwänzt habe?“ Das mag man jetzt für übertrieben halten, aber mal ehrlich: Wer hat sich das (auch jenseits der Raumvergabe) nicht auch schon mal gedacht, dann über seinen eigenen Verfolgungswahn gelacht und am Ende doch das seltsames Gefühl zurückbehalten, irgendeinen geheimen, aber wichtigen Mechanismus nicht erkannt und angewandt zu haben?

Wo ist meine Metaperspektive geblieben?

Die aktuelle Ausgabe der Zeitschrift für Hochschulentwicklung (März 2013, 8/2) dreht sich um das Thema Qualitätsmanagement. Unter dem Titel „Vertrauen wir auf Qualität? Zwei Jahrzehnte Qualitätssicherung im europäischen Hochschulraum“ haben Oliver Vettori und Bernhard Kernegger (Wien) ein Heft mit insgesamt 15 Beiträgen herausgegeben. Ich habe bisher nur ein paar der Texte gelesen, unter anderem genauer die von Manuel Pietzonka (Hochschulinterne Instrumente zur Qualitätssicherung aus der Sicht von Hochschulangehörigen und aus der Perspektive der Programmakkreditierung: hier) und Nadine Merkator und Andrea Welger (Neue Formen der Qualitätssicherung – dialogische Evaluation in Lehre und Studium: hier).

Qualitäts- und Evaluationsfragen betreffen jeden Hochschullehrer direkt. Das Themenheft hat mich jetzt noch einmal daran erinnert, dass es in den letzten Monaten ein paar Anlässe gab, bei denen mir bewusst wurde, dass ich zu Lehrqualität und Lehrevaluation offenbar ein etwas gespaltenes Verhältnis habe. Das kann man jetzt wörtlich nehmen, denn:

Einerseits beschäftige ich mich aus didaktischer, aber auch forschungsmethodischer Sicht mit dem Thema. Das ist gewissermaßen eine Metaperspektive. Da geht es darum, ÜBER Evaluation bzw. Lehrqualität nachzudenken, die Möglichkeiten der Qualitätssicherung und -entwicklung über Evaluationen abzuwägen etc. Bin ich in dieser Rolle, sage ich ganz klar: Wir brauchen Evaluationen, es ist wichtig, dass Lehre und deren Qualität beobachtet, eingeschätzt und in der Folge verbessert wird. Studierende müssen hierzu ihr Urteil abgeben, sollen sich äußern und Kritik üben, denn nur so kann sich etwas bewegen. Lehre ist ja keine Privatangelegenheit, also muss man darüber sprechen, auch öffentlich, muss Lehrende mit Ergebnissen konfrontieren usw.; und das muss man dann natürlich auch irgendwie organisieren, läuft also nicht ohne eine gewisse zentrale Steuerung ab.

Andererseits bin ich selbst als Lehrende tätig und daher natürlich immer auch „Betroffene“. Das ist dann keine Metaperspektive mehr, die ich innehabe, sondern ich stecke mitten drin: Ich WERDE evaluiert oder werde aufgefordert zu evaluieren, ERHALTE Evaluationsergebnisse und werde (vielleicht) ermahnt, aufgrund dieser Ergebnisse etwas zu verändern. Nun ist meine aktuelle Situation faktisch so, dass wir in unserem Lehrgebiet unsere Lehre selbst evaluieren, die Ergebnisse an alle kommunizieren und selbst entscheiden, was wir damit machen. Ob das für einen Lehrende so ist oder eben anders (nämlich zentrale Instrumente und Auswertung an zentraler Stelle) hängt einfach davon ab, wo man sich gerade befindet. Aber ich kann mich natürlich sehr gut in diese Situation hineinversetzen, dass ich (bzw. meine Lehre) jenseits meiner eigenen Kontrolle evaluiert werde (bzw. wird). Und was spüre ich da? Widerstand! Und ich frage mich: Wo ist meine Metaperspektive geblieben? Warum widerstrebt mir das?

Ich kann diese Fragen nicht direkt beantworten. Ich denke auch, da muss man ein bisschen ausholen. Wissenschaftler, so meine Beobachtung und Überzeugung, sind sehr autonome Wesen – wahrscheinlich müssen sie das auch sein. Wissenschaftler haben einen sehr großen Vorteil: Sie beschäftigen sich mit dem, was sie interessiert – sehr interessiert! Deswegen kann man auch die sogenannte Freizeit von der Arbeitszeit nicht sinnvoll voneinander trennen. Natürlich gibt es „drum herum“ viele (relativ einmütig heißt es: viel zu viele und mehr werdende) Aufgaben, die inhaltsfremd sind. Offenbar empfinden einige Wissenschaftler auch die Lehre als inhaltsfremd. Und dann arbeitet man sie ab – das sind dann mit vergleichsweise hoher Wahrscheinlichkeit keine guten Lehrveranstaltungen. Die Evaluationsergebnisse sind dann mit ebenso hoher Wahrscheinlichkeit schlecht (oder auch nicht, weil es vielleicht eine implizite Übereinkunft zwischen Lehrenden und Studierenden gibt, den Ball einfach flach zu halten – siehe auch hier).

Aber das ist ja keinesfalls bei allen Lehrenden so! Wissenschaftler lehren immerhin IHR Fachgebiet und auch wenn man immer nur zu einem keinen Teil seines Fachgebiets forscht (wo dann wohl das größte Interesse liegt – vielleicht aber auch nur die besten Geldquellen – man weiß es nicht so genau), ist es darin doch eingebettet. Lehre – so meine These – darf ruhig anstrengend sein, aber sie muss einen mit Befriedigung erfüllen und im Großen und Ganzen Freude bereiten. Und das tut sie in der Regel dann, wenn man in Veranstaltungen erfolgreich mit Studierenden ZUSAMMENarbeitet, will heißen: wenn es einem gelingt, Studierende für die Inhalte des Lehr- und Forschungsgebiets zu begeistern oder dafür zumindest erstes Interesse zu wecken und Fragen zu provozieren, wenn man in einen Dialog kommt, wenn Neues entsteht, wenn man dabei auch von den Studierenden lernen kann, wenn man aber auch sieht, wie Studierende besser werden, wie sie etwas annehmen und Eigenes daraus machen. Ich kann mir nicht vorstellen, dass Lehrende nicht auch genau dahin wollen. Und warum sollten dann nicht auch Instrumente willkommen sein, die einem helfen, dahin zu kommen?

Lehre macht aber dann keinen Spaß, wenn die Studierenden (oder die Mehrheit von ihnen) lustlos sind, offen Desinteresse bekunden und nach dem bequemsten Weg suchen, Credit Points zu bekommen. Natürlich: Lust und Unlust in der Lehre sind ein Wechselspiel: Es ist praktisch völlig irrelevant, was da Ursache und was Folge ist. Praktisch relevant ist die Frage, was BEIDE Seiten tun könne, damit Lehre keine Aneinanderreihung von Frusterlebnissen ist, sondern (a) Lernprozesse bei den Studierenden bewirkt, die davon entsprechend profitieren, und (b) den Lehrenden darin unterstützt, das eigene Lehr- und Forschungsgebiet weiter und tiefer zu durchdringen. Was am Ende herauskommt, ist ein Gemeinschaftsprodukt. Klassische Evaluationen aber betrachten gar nicht dieses Gemeinschaftsprodukt, sondern fragen danach, was Studierende im Prozess einer Veranstaltung wahrgenommen haben und wie sie das bewerten. Das ist wichtig, aber nur ein Puzzleteil! Und es für die Lehrqualität wirkungslos, wenn es ein Puzzleteil bleibt.

Eigentlich brauchen wir nicht primär Evaluationen, sondern eine gemeinsame Reflexion der Lehre. Der Text von Merkator und Welger (hier) bringt ein Beispiel für eine „dialogische Evaluation“, die in die Richtung geht, die ich meine. Was mir hier allerdings noch fehlt, ist die Reflexion der Studierenden über IHREN Lernprozess (wie man es in Portfolios anzuregen versucht, was aber auch nicht immer gut gelingt). Die Verbesserung der Lehre hat ja ein Ziel – nämlich, dass Studierende besser lernen, um es mal ganz einfach zu formulieren. Eine hohe Lehrqualität ist so gesehen „nur“ ein Mittel zum Zweck, oder man sollte besser sagen: eine in der Regel notwendige, aber keine hinreichende Bedingung, um den Zweck zu erreichen. Dazukommen muss das Engagement der Studierenden – deren Neugier und Motivation, deren Selbstdisziplin und Mitarbeit, deren kognitive Aktivität und kognitiven Konflikte, deren Interaktion mit dem Lehrenden und anderen Studierenden etc. Und dann kommt es auf das Wechselspiel dessen an, was der Lehrende anbietet, und was die Studierenden damit machen, wie der Lehrende wiederum darauf reagiert etc. Wenn es um die Qualität der Lehre geht, muss man DIESES Wechselspiel im Blick haben, formativ oder auch summativ zu fassen versuchen und es dann gemeinsam bewerten, um daraus Folgerungen zu ziehen. Und das kann man nicht top-down mit einem Online-Fragebogen. Mit letzterem kann man sicher einige wichtige Einschätzungen über einen Studiergang und dessen Elemente erfassen, aber da reden wir dann von anderen Aspekten der Qualität an einer Hochschule.

Beantwortet sich damit meine Frage, wie es dazu kommt, dass ich dem Thema „Evaluation der Lehre“ offenbar gespalten gegenüberstehe? Habe ich eine Antwort auf die Frage, warum Hochschullehrer oft mit Widerstand reagieren, wenn es um Lehrevaluation geht? Na ja, nicht direkt, aber ein Ansatzpunkt wäre ja vielleicht, dass man darüber nachdenkt, wie man Lehrende in ihrer Autonomie ernst nehmen kann und nicht prinzipiell von ausgeht, das man sie und ihre Lehre kontrollieren muss, und wie man gleichzeitig den riesigen Vorteil nutzen kann, dass sie als Wissenschaftler ihre Lieblingsthemen zum Beruf gemacht und daher an sich ein genuines Interesse daran haben, dass ihnen die Lehre selber Spaß macht, was wiederum an ein erfolgreiches Lernen bei den Studierenden gekoppelt ist. Ich bitte die Leser dieses Beitrags, meine Ausführungen eher als „lautes Denken“ zu verstehen – nicht als ausgearbeitetes Konzept!

Eine im Begriff angelegte Starrheit

Rigor versus Relevanz – dieses Gegensatzpaar spielt eine große Rolle, unter anderem wenn man sich mit Forschungsansätzen wie Design-Based Research bzw. Entwicklungsforschung beschäftigt (zum Thema siehe z.B. hier). Unter dem Titel „Rigor, wissenschaftliche und praktische Relevanz“ hat Alexander Dilger vor knapp einem Jahr ein Diskussionspapier veröffentlicht (hier), in dem er das Gegensatzpaar „Rigor – Relevanz“ auflöst und stattdessen für die Unterscheidung von drei Dimensionen plädiert (siehe im Text Abbildung auf Seite 7): Rigor, wissenschaftliche Relevanz und praktische Relevanz.

Seine Argumentation: Wissenschaft sollte nicht auf Rigor im Sinne der Einhaltung von Regeln und Standards und schon gar nicht auf die Einhaltung von wiederum nur speziellen Standards (z.B. beim quantitativen Forschen) eingegrenzt werden. Wichtiger sei vielmehr die wissenschaftliche Relevanz, zu der neben Rigor auch Kreativität oder die Bedeutung des betrachteten Problems gehöre (S. 2). Aber: „Rigor erfreut sich … deshalb so großer Beliebtheit in der Wissenschaft, da er besser feststellbar, überprüfbar und für weitere Forschung anschlussfähiger ist als die anderen Bestandteile der wissenschaftlichen Relevanz und damit auch dieser selbst“ (S. 4). Außerdem würde das aktuelle System der Forschungsförderung und wissenschaftlichen Nachwuchsförderung eine Spezialisierung auf die Einhaltung von Rigor (vor allem speziellem Rigor) befördern. Von daher sei eine Dominanz von Rigor eine reale Gefahr – jedenfalls „bis die im Begriff angelegte Starrheit zu groß wird“ (S. 6). Dilger führt anhand einiger Beispiele auf, dass Rigor und wissenschaftliche Relevanz durchaus voneinander unabhängig sein können, aber im Idealfall natürlich miteinander gekoppelt sind, ohne dass aber die wissenschaftliche Relevanz in Rigor aufgehe.

Als dritte Dimension führt er nun die praktische Relevanz ein. Hier ist interessant, dass seine Argumentation für die Betriebswirtschaftslehre, die er als angewandte Wissenschaft bezeichnet, auch auf die Bildungswissenschaften als ebenfalls angewandte Wissenschaften recht gut passt: „Für Praxis und Wissenschaft ist es besser, wenn innerhalb der Wissenschaft die wissenschaftliche Relevanz nach Möglichkeit wieder in den Vordergrund gerückt wird. Denn wissenschaftliche Relevanz kann nicht nur zu praktischer Relevanz führen, sondern auch umgekehrt kann die praktische Relevanz als eine Komponente verstanden werden, die neben Rigor, Kreativität u. a. zur wissenschaftlichen Relevanz beiträgt. In einer angewandten Wissenschaft ist ein Problem allein schon deshalb wissenschaftlich relevant, weil es sich in der Praxis stellt. Allerdings ist dieser Beitrag zur wissenschaftlichen Relevanz gering, wenn nicht weitere Eigenschaften hinzukommen, z. B. dass das Problem verallgemeinerbar, an vorhandene Theorien anschlussfähig oder für die Entwicklung neuer Theorien fruchtbar ist“ (S. 6). Ich finde, diese Argumentation hat eine hohe Affinität zu den Argumenten, mit denen man in der Regel versucht deutlich zu machen, warum Design Research bzw. Entwicklungsforschung nicht nur ein neuer Aufguss der alten Aktionsforschung ist.

Im letzten Teil des Textes geht Dilger im Zusammenhang mit der praktischen Relevanz auf den Unterschied zwischen praktischem Interesse an neuem Wissen und an der Rechtfertigung schon bestehender Meinungen ein (S. 8 ff.), wobei er mit Praxis vor allem die Wirtschaft und die Politik im Blick hat. Erhebliche Probleme für die Wissenschaft identifiziert Dilger vor allem da, wo die Praxis vorrangig nach wissenschaftlicher Rechtfertigung ihrer schon gefassten Entscheidungen oder formulierten Einschätzungen interessiert ist. Wichtig erscheint mir hier unter anderem sein Hinweis darauf, dass Wissenschaft von ihrem Charakter her öffentlich angelegt ist und öffentlich zugängliches Wissen ein Kollektivgut ist; „die Ergebnisse werden in der Regel veröffentlicht, um von allen anderen Wissenschaftlern begutachtet, gegebenenfalls kritisiert oder um deren weitere Erkenntnisse ergänzt werden zu können“ (S. 11).

Fazit: Ein lesenswertes Diskussionspapier – auch für Bildungswissenschaftler und vor allem für solche, die außerhalb des aktuellen Forschungsmainstreams versuchen, Fuß zu fassen.

Wann ich die wissenschaftliche Welt nicht mehr verstehe

Im Moment sitze an meinem 19. Dissertationsgutachten (Erstgutachten) seit 2003 (zehn Jahre – mein Gott!). Ich habe keine Ahnung, ob das viel oder wenig ist. Was ich aber sagen kann ist, dass die Gutachtenerstellung immer schon viel Arbeit war und nach wie vor ist. Nun sollte man meinen, dass man mit der Zeit aufgrund wachsender Übung und Erfahrung schneller wird (zehn Jahre gilt ja auch als magische Grenze zur Expertise). Das ist wohl auch der Fall. Ich bemerke aber gleichzeitig, dass meine Gutachten länger werden – nicht so sehr viel, aber doch ein wenig (früher rund acht Seiten, heute um die zwölf Seiten). Nun hatte ich kürzlich ein interessantes Gespräch mit einem Zweitgutachter aus einer anderen Universität. Der Zweitgutachter lobte mein sehr ausführliches und gut nachvollziehbares Gutachten, das er in wirklich allen Punkten unterstreichen könne. Aber er habe da einen wichtigen Hinweis: An seiner Uni bzw. an seiner Fakultät würde man das so nie auslegen können. Es seien ja neben den genannten Stärken doch auch umfangreich Schwächen und sehr genau Defizite dargelegt und da würde man in Frage stellen, ob man die Arbeit überhaupt durchgehen lassen könne.

Das finde ich nun schon sehr interessant. Immerhin werden Dissertationen (anders als Habilitationsschriften) nicht mit „bestanden – nicht bestanden“ bewertet, sondern es gibt Abstufungen: summa cum laude (also in etwa „ausgezeichnet“) – magna cum laude (damit meint man „sehr gut“) – cum laude (damit bringt man zum Ausdruck, dass die Arbeit gut ist) und „rite“ (im Sinne von: „na ja, geht gerade noch so“). Wenn es nun solche Abstufungen gibt und man als Gutachter zu einem Urteil (Auswahl aus vier Optionen) kommen will, braucht man Gründe: Man muss darlegen, was an der Arbeit ausgezeichnet, sehr gut oder eben gut ist, was aber auch weniger gelungen ist. Und was weniger gelungen ist – so wäre auch mein Anspruch als Doktorand – sollte schon konkret benannt sein. Am Ende kommt es dann darauf an, wie man Stärken und Schwächen zueinander in Beziehung setzt, wie man sie gewichtet und was man daraus folgert. Auf diese Weise arbeitet man sich als Gutachter gewissermaßen zu einer Bewertung vor – zu einem begründeten, hoffentlich nachvollziehbaren Urteil. Wenn man nun die Schwächen und Defizite einer Arbeit nur andeutet, eher knapp in das Gutachten einbaut und insbesondere nicht konkretisiert: Bleibt man dann dem Doktoranden wie auch Dritten (nämlich der Fach-Community) nicht eine Begründung für sein Urteil schuldig? Was ist das für eine Fakultätskultur, die fordert, dass man in Gutachten die negativen Punkte einer Arbeit besser nicht so genau benennt?

Natürlich: Wenn man seine Doktoranden gut betreut, sieht man selbstverständlich die Dissertation nicht bei Abgabe das erste Mal. Bei uns ist es so, dass ich (neben unserem Doktorandenprogramm) alle Kapitel einer Arbeit mindestens zweimal lese und in der Regel auch zweimal ein Feedback mit Hinweisen bis auf die Satzebene gebe. Am Ende bekomme ich dann noch einmal eine vollständige Version. Und auch auf die gibt es in der Regel eine längere Rückmeldung und meistens ist es so, dass Doktoranden dann noch einige Wochen, mitunter Monate, brauchen, um eine zweite „abgabereife“ Fassung zu haben. Auf diese werfe ich dann noch einmal einen letzten Blick. Niemals würde ich diese letzte Fassung „abnicken“, wenn ich der Meinung wäre: Da wird das erforderliche Niveau nicht erreicht. Auch eine Arbeit, bei der es allenfalls auf ein „rite“ hinauslaufen würde, würde ich so lange zurückgeben, bis diese „Wackelstufe“ zwischen „bestanden und nicht-bestanden“ verlassen ist.

Spätestens hier – allerdings auch schon zu früheren Phasen – muss man sich als Betreuer allerdings die Frage stellen: Wann werde ich zum Ko-Autor? Wie viel und mit welchem Konkretisierungsgrad kann, soll, darf ich Verbesserungen anregen, vorschlagen oder einfordern? Ein Feedback muss konstruktiv sein, also Hinweise beinhalten, wie man es besser machen kann, sonst kann der Doktorand damit wenig anfangen. Das lässt sich aber nicht abstrakt bewerkstelligen, sondern muss konkret am einzelnen Beispiel erfolgen. Da kann schon mal die Grenze des „Mitschreibens“ zumindest erreicht werden – und die gilt es dann natürlich, genau nicht zu überschreiten!

Fazit: Die am Ende abgegebene Dissertation, wenn sie denn gut betreut ist, sollte bereits einen umfänglichen „Check“ hinter sich haben. Nur in wenigsten Fällen aber wird sie „perfekt“ im Sinne von „ohne kritisierbare Punkte“ sein (und dann ein „summa cum laude“ erhalten). Vielmehr wird sie zwar das erforderliche Niveau erreicht haben, aber – was sich ja auch in der Benotung zeigt – neben den Stärken mehr oder weniger ausgeprägte Schwächen haben – immer noch, auch und trotz einer intensiven Betreuung, weil man ja eben nicht einfach „mitschreiben“ kann. Und der Zweitgutachter wird noch einmal andere Dinge kritisieren oder auch loben. Und genau dazu – so meine ich jedenfalls – sind die Gutachten da: In diesen muss stehen, wie die Gutachter die Arbeit sehen, welchen wissenschaftlichen Wert die Arbeit aus ihrer Sicht hat, wie verschiedene, möglichst transparent zu machende, Kriterien erfüllt sind, und warum man daher zu welcher Bewertung kommt. Eine solche Bewertung ist niemals „objektiv“ in dem Sinne, dass man zu einem Urteil kommt, auf das alle anderen potenziellen Gutachter exakt auch kommen würden. Genau deswegen ist es ja so wichtig, dass man sein Urteil begründet.

Ich habe das bisher eher intuitiv so gemacht. Seit nun in den letzten eineinhalb Jahren die Plagiatsaffären in den Schlagzeilen waren (vor allem der besonders komplexe „Fall Schavan“), habe ich mich in meinem Vorgehen eigentlich bestätigt gesehen: Auch Gutachter tun gut daran, ihre Bewertungen nachvollziehbar zu begründen (dann müsste man 30 Jahre später nicht rätseln, warum eine Arbeit damals so und heute so bewertet wird). Umso mehr hat mich gewundert, von gänzlich anderen Gepflogenheiten zu hören: Gutachten mit umfänglicher Auflistung von Kritikpunkten und deren Gewichtung gar nicht erst zuzulassen. Ich muss sagen: Da verstehe ich die wissenschaftliche Welt nicht mehr.