Müller-Böling auf Wahrheitssuche

„Zukunft jetzt – Wie wir leben, lernen, arbeiten“ – so heißt eine Reihe von SWR 2 Aula, die man auch online hier abrufen kann. Folge 8, auf die mich Sandra aufmerksam gemacht hat, dreht sich um die Universität. Es spricht Detlef Müller-Böling zum Thema „Autonom und forschungsintensiv – Die Universität der Zukunft“. 25 Minuten ca. dauert Müller-Bölings Zukunftsszenario der deutschen Universitäten und es gäbe eine ganze Reihe von Punkten, an denen man aus meiner Sicht viel und kontrovers diskutieren könnte. Wie zu erwarten, ist viel von Leistung, Exzellenz und Qualität die Rede. Aber auch das Wort Vielfalt hört man erstaunlich oft, als wolle man damit den kritischen Kommentaren gleich zu Beginn den Wind aus den Segeln nehmen (nach dem Motto: Wenn Vielfalt herrsch, findet jeder Querulant schon irgendwo seinen Platz).

Aber ich möchte mich auf einen speziellen Aspekt konzentrieren, nämlich auf Müller-Bölings Postulat der Trennung von „Wissensproduktion“ – also von Forschung – auf der einen Seite und von „Wissensvermittlung“ – also von Lehre – auf der anderen Seite. Eine wie auch immer geartete Einheit von Forschung und Lehre ist für Müller Böling nichts als eine lästige Monstranz, die die ewig Gestrigen vor sich hertragen – blind für die moderne Welt, die nach Arbeitsteilung verlangt. Forschung und Lehre und dazu auch noch Prüfen – so sein Szenario – würden sich zunehmend voneinander trennen, bisherige Zusammenhänge, die hier bestehen, würden sich „auflösen“. Mit anderen Worten: Forschung in vielen Disziplinen gleichzeitig sei künftig wohl auf drei bis fünf Spitzenuniversitäten in Deutschland beschränkt. Ein bisschen Forschung in einzelnen Disziplinen sei an Hochschulen mit „Forschungsleuchttürmen“ möglich und dann gäbe es noch viele Hochschulen, die eine „regionale Versorgung mit Bildung“ sicherstellen sollten – ohne Forschung, versteht sich. Als Beispiel für die Sinnhaftigkeit einer solchen Trennung, bei der jede Hochschule dann das mache könne, was sie gut kann (oder umgekehrt, dass sie nicht mehr das machen müsse, was sie nicht kann), nennt Müller-Böling die Virtuelle Hochschule Bayern – als handle es sich dabei um eine eigene Hochschule und nicht um ein Verbundprojekt, das gänzlich andere Ziele verfolgt als eine normale Universität. Genauso deplatziert wie dieses Beispiel ist aus meiner Sicht der Vergleich reiner „Lehr-Hochschulen“ (wobei er diesen Begriff nicht nennt) mit dem Breitensport – als könne man nicht genau beim Sport wunderschön sehen, wie sich der Spitzensport vom Breitensport entkoppelt hat. Vielleicht hätte er diese Analogie besser mal zu Ende gedacht.

Damit man aber auf keine dummen Gedanken kommt und all diese ökonomisch höchst anschlussfähigen Formal-Forderungen in Zweifel zieht, ist das Schlusswort dann doch wieder recht pathetisch und scheinbar nah an den Vorstellungen derjenigen, die (noch) glauben, dass Forschung und Lehre sehr wohl zusammengehören. Er sagt: „Auch wenn die Universitäten im Detail sich grundlegend verändern, wenn sie anders aussehen in 20 Jahren als heute, …., so bleibt eines doch auf jeden Fall bestehen: Sie sind und sie werden bleiben Ort der Wahrheitssuche für Wissenschaftler und Ort der Ermutigung zur Wahrheitssuche für Studierende“. Wie das mit den vorangegangenen Forderungen zusammenpasst, ist mir ein Rätsel! Wer Universitäten haben will, die sich ausschließlich auf die Lehre konzentrieren, die „Kunden“ mit Bildungsware versorgen, und sich darauf beschränken, „Versorgungslücken“ zu füllen, der kann mir nicht erzählen, dass es ihm darum geht, Wahrheit suchende, fragende und aufgeklärte Menschen zu fördern.

Kultur des Klagens

Auf meinen Blogbeitrag „Teil des Establishments“ gab es einen Kommentar, in dem ich auf einen Beitrag von Rolf Haubl und Günter Voß aufmerksam gemacht worden bin. Der Text mit dem Titel „Psychosoziale Kosten turbulenter Veränderungen“ beinhaltet die Kurzdarstellung einer qualitativen Befragung von Supervisor/innen zum „Innenleben von Organisationen in Deutschland“. Die dort skizzierten Ergebnisse stellen in der Tat eine generelle Zustandsbeschreibung von Organisationen dar, in die man die Beobachtungen und Erfahrungen an Universitäten (wie im oben genannten Blogbeitrag beschrieben) sehr gut und fast schon nahtlos einordnen kann. Die Autoren verweisen auf zahlreiche Punkte, die auch für die Arbeit von Professoren und Mitarbeitern an den Universitäten gelten:

Nennen kann man etwa die wachsenden Dokumentations- und Evaluationspflichten, die zu Lasten der Arbeits- und Leistungsqualität gehen, den steigenden Effizienzdruck und das unangemessene Innovationstempo, wobei angemerkt wird: „Übersteigt das Innovationstempo die Anpassung der Beschäftigten, neigen sie dazu, lediglich die Rhetorik zu wechseln, um sich selbst zu schützen …“ – wie wahr! Auch Misstrauen und fortschreitende Entsolidarisierung sind Phänomene, die an Universitäten ebenfalls zu erkennen sind. Führungskräfte scheitern auch an den Unis an widersprüchlichen Anforderungen, fehlenden Ressourcen und einer gewissen Machtlosigkeit. Zielvereinbarungen, die im Text ebenfalls besprochen werden, haben in der W-Besoldung von Professoren längst Einzug gehalten. Dass diese, wie Haubl und Voß betonen, „hohe Selbsterkenntnis“ (S. 6) voraussetzen, aber keineswegs bedeuten, dass Leistung wirklich belohnt wird, weshalb „Enttäuschungsprophylaxe“ (S. 7) angezeigt sei, gilt wohl für Unternehmen und Universitäten gleichermaßen. Eine „Kultur des Klagens wegen anhaltender Überforderung“ (S. 6) aber – so die Folgerung der Autoren – sei keine angemessene Reaktion, denn sie diene lediglich der Ritualisierung der Probleme. Dass Jammern nicht hilft, hatte ich ja auch schon festgestellt, aber wissen wir, was denn nun tatsächlich helfen könnte? Haubl und Voß hoffen, dass die Finanzkrise eine Chance sein könnte, ehrlicher mit diesen Problemen umzugehen, was ein erster Lösungsschritt wäre. Nun ja, Krisen gibt es auch an den Universitäten zuhauf – vielleicht können wir sie nutzen?

Die vermeintliche Politikferne der Wissenschaft

Niels Taubert vom Institut für Wissenschafts- und Technikforschung (IWT) an der Universität Bielefeld hat mir in einem Kommentar auf den Blogbeitrag „Den Jackpot knacken“ einen höchst interessanten Linktipp auf einen Text von Stefan Hirschauer mit dem Titel „Die Innenwelt des Peer Review. Qualitätszuschreibung und informelle Wissenschaftskommunikation in Fachzeitschriften“ (aus dem Jahr 2002) gegeben, für den ich mich an der Stelle noch einmal herzlich bedanke. Der (soziologische) Beitrag beschäftigt sich mit der Forschung zum Peer Review, gibt einen Überblick über bisherige empirische Strategien und setzt sich kritisch mit den bislang gestellten Fragen wie auch Methoden auseinander. Ich habe darin viele mir bereits aus einigen anderen Texten bekannte Erkenntnisse zum Peer Review gefunden, aber auch eine ganze Reihe neuer Einsichten vor allem zur Forschung zu diesem Thema selbst. So weist der Autor z.B. darauf hin, dass man im Zuge von Reliabilitätsüberprüfungen von Gutachten im Peer Review durchaus einmal die Frage stellen sollte, ob Gutachterübereinstimmung denn überhaupt Zweck eines Peer Reviews sein kann. Zudem wird aufgedeckt, dass es auf der Ebene der Herausgeberentscheidungen in Zeitschriften fast gar keine empirischen Erkenntnisse gibt. Eine der Hauptaussagen des Textes aber ist, dass es in der Peer Review-Forschung ein paar gravierende Schwächen gibt, die zum einen mit der Erwartungshaltung (und den damit verbundenen Prämissen im Kontext des Peer Review) und zum anderen mit dem Theoriedefizit dieser Forschung zusammenhängen. Bemängelt werden auch methodische Vorgehensweisen etwa bei Reliabilitätsmessungen oder auch bei Inhaltsanalysen von Gutachten. Hitschauer plädiert vor diesem Hintergrund dafür, bisherige meist nur quantitative Forschungsmethoden durch qualitative zu ergänzen. Am Ende des Beitrags fasst Hirschauer seine Position zusammen, die ich an der Stelle gerne ausführlicher zitieren möchte, weil sie meiner Ansicht nach ein paar ganz zentrale Punkte sehr prägnant auf den Punkt bringt:

„Ich habe eingangs festgestellt, daß der Peer Review nicht nur ein wissenschaftsinternes Instrument ist, er wird auch zur externen Evaluation von Forschung (in Finanzierungsfragen) instrumentalisiert. Dies kann auf zwei Weisen problematische Effekte im Sinne einer Fehlsteuerung von Mitteln haben. Zum einen auf Seiten der Rezeption von Gutachten: Außerhalb der Wissenschaft werden Gutachten tendentiell nicht mehr als Äußerungen-im-wissenschaftlichen-Meinungsstreit aufgefasst, sondern als autoritative Expertenäußerungen ‚der Wissenschaft‘ und diese Verkürzung gelingt umso eher, je geringer die Zahl der Gutachter (d.h. je geringer die Dissenschancen). Zum anderen können solche Erwartungen der Politik auch entsprechende Sprecherpositionen in der Wissenschaft hervorbringen. Eben dies scheint das Gros der Peer Review Forschung wie auch der quantitativen Wissenschaftsevaluation zu bestätigen: Wenn etwa Dissens als ‘Random’ gilt, übernimmt eine für Zwecke politischer Evaluation eingesetzte Wissenschaftsforschung ein Fremdstereotyp von Wissenschaft – daß diese sicheres und objektives Wissen generiere – in ihre Selbstbeschreibung. Diese bestätigt dann wiederum die Erwartungen (und Hoffnungen) der Politik, daß Wissenschaft politikferner sei als sie es tatsächlich ist; daß es in ihr nicht auch um Öffentlichkeit und das Gelingen von Kommunikation, um Diskursivität und um Politik ginge: um Parteilichkeit und ihre Neutralisierung durch Verfahren, die Legitimität für hierarchiebedürftige Entscheidungen unter Gleichen beschaffen müssen.“ (Hirschauer, 2002, S. 20)

Verwöhnte Elite-Bildungsstätten

Das Geld ist überall knapp – so auch an den deutschen Hochschulen. Alles schielte daher seit langem (und schielt noch) auf die USA, wo ja angeblich alles besser läuft – vor allem die Bildung von Eliten und zwar im doppelten Sinne des Wortes (was natürlich so ohnehin noch nie gestimmt hat – mit einigen Mythen räumt z.B. ein Beitrag in der aktuellen Ausgabe der Zeitschrift Forschung und Lehre auf; online hier zu lesen). Die weltweite Finanzkrise aber scheint nun auch in der amerikanischen Bildungslandschaft Wellen zu schlagen – jedenfalls wenn man dem Spiegel online-Artikel (hier) von Gregor Peter Schmitz Glauben schenken darf: „An den verwöhnten Elite-Bildungsstätten ist nichts mehr undenkbar“, ist da zu lesen. Und weiter: „Nicht mal das Sparen bei den lange als unantastbar geltenden Stipendien für bedürftige Studenten. Die Finanzkrise hat enthüllt, wie riskant viele Hochschulen mit ihrem Vermögen spekulierten. Um bis zu 40 Prozent sind die Rücklagen zerbröselt. Allein Harvard verlor über zehn Milliarden Dollar. Nun rächt sich das Selbstverständnis der Unis als privatwirtschaftlich organisierte Unternehmen.“ Da hilft nur Sparen – nicht nur beim Whirlpool und beim Fensterputzen, sondern auch bei der Selektion der „Besten“, die halt doch wieder an die am besten gefüllten Geldbeutel gebunden sind. Eine besondere Einnahmequelle für die staatlichen Unis in den USA, die es besonders hart trifft, sind ausländische Studierende: „Weil die meisten staatlichen Unis die Studiengebühren in der Krise nicht beliebig erhöhen können, wünscht sich etwa die Colorado State University mehr ausländische Studenten. Die zahlen bis zu viermal höhere Studiengebühren als Einheimische.“ Und anders als bei uns gibt es in den USA Gott sei Dank noch die noblen und richtig reichen Spender, die mal eben 70 Millionen Dollar an Universitäten verteilen – z.B. als Stipendien für Minderheiten und Studenten mit schmalem Geldbeutel. Als Strategien zum Nachmachen dürften in Deutschland wohl nur Putzdienste übrig bleiben – was nur bedeuten könnte, dass man auf diese demnächst ganz verzichtet.

Im Mikrobereich

Das Handbuch E-Learning kann auf einen neuen Artikel verweisen: Jochen Robes hat diesen über „Microlearning und Microteaching: Flexible Kurzformate in der Weiterbildung“ geschrieben. Erfreulicherweise kann man den Artikel hier auch online lesen. Ein Beitrag zu diesem Thema in deutscher Sprache war wohl überfällig, geistern die „Micro“-Phänomen doch durch viele Blogs und Web-Seiten, wobei vieles, was man da lesen kann, wenig reflektiert und eher reißerisch oder leicht esoterisch angehaucht daherkommt. Gut strukturiert und sorgfältig recherchiert, angereichert mit anschaulichen Beispielen führt der neue Artikel aus meiner Sicht nun verständlich in das Thema ein, liefert bekannte wie auch neue Strukturierungsvorschläge und Definitionen, aber auch eine Reihe von Thesen, die man sicher kritisch diskutieren könnte, im Text aber eher als Prämissen geliefert werden. Ein paar wenige Dinge gefallen mir nicht (So ist z.B. die „Zielgruppenmatrix nach Rosenberg“ auf Seite 14 nicht gerade überzeugend). Alles in allem aber liegt hier ein empfehlenswerter Text vor, der an manchen Stellen auch zum Nachdenken anregt und jedenfalls bei mir auch ein paar offene Fragen und Gedanken zum Thema „Microlearning“ provoziert:

  • In der Einführung wird auf Jay Cross verwiesen, der meint, dass geplante Bildungsangebote zu kurz greifen, weil der Wandel zum Alltag wird. Ich frage mich da, wer denn den Wandel bestimmt und ob es nicht genau auch Aufgabe von Bildung ist, Menschen darin zu unterstützen, an diesem Wandel zu partizipieren. Wenn dem so ist, geht es gar nicht immer nur um kurzfristige Reaktionen auf neue Anforderungen (dem formale Bildungsangebote nicht nachkommen können), sondern um sehr beständige Grundfähigkeiten, die man auch im Erwachsenenalter noch weiter ausbauen und verfeinern kann. Ich glaube nicht, dass das Heil im informellen Lernen liegt, weil man mit einer Einengung von Bildung auf das informelle Lernen viel eher Gefahr läuft, dass sich Menschen vor allem kurzfristig anpassen, was dann der Grundidee einer Partizipationsfähigkeit, die hier immer angeführt wird, sogar zuwiderläuft oder zuwiderlaufen kann.
  • Nicht ganz verstanden habe ich die vergleichsweise rasche Gleichsetzung des Microlearning mit einem Lernen, das automatisch auch aktive Produktionsprozesse des Lernenden umfasst und grundsätzlich als informell bezeichnet werden kann (Seite 6). Letzteres wird an späterer Stelle verständlicher, wenn das Microtraining eingeführt wird – quasi das angeleitete und in formale Bildungsangebote integrierte Pendant zum Microlearning. Hier könnte man sich wieder die Diskussionen einfangen, wie wir sie ja auf mehreren Blogs (auch hier) zum E-Learning-Begriff geführt haben: Jeder wird unter diesen Begriffen etwas anderes verstehen und kaum jemand wird sich an die differenzierte Begriffsverwendung halten.
  • An mehreren Stellen (z.B. auf Seite 8 ) habe ich mich gefragt, ob wir nicht einen deutlicheren Unterschied zwischen einem „Lernen als Sich-Informieren“ und einem „Lernen als Wissensaneignung“ machen müssten: Hier merkt man, wie wertvoll Lehrzieltaxonomien sind (z.B. die von Anderson und Krathwohl: hier eine gute Übersicht), die einem bewusst machen, dass es natürlich seitens eines „Anbieters“ oder Lehrenden oder des Lernenden selbst ganz verschiedene Bildungsabsichten geben kann, die man nicht auf allen Wegen erreichen kann.
  • In der zweiten Texthälfte wird das Microlearning als E-Learning 2.0 bezeichnet. Gleich im nächsten Abschnitt wird sehr schön gezeigt, dass man Microlearning durchaus auch in formale Bildungskontexte integrieren kann. Wozu also eigentliche diese unsägliche Gegenüberstellung von 1.0 und 2.0? Auf der (theoretischen) Ebene der Lernparadigmen hat man inzwischen aufgehört, verschiedene Auffassungen und Sichtweisen von Lernen als sich ausschließend gegenüberzustellen – allein zum Zwecke des Kennenlernens der verschiedenen Auffassungen erscheint es legitim, auf die Unterschiede aufmerksam zu machen. In der Praxis aber ist es äußerst unproduktiv, verschiedene „Lern-Versionen“ gegeneinander auszuspielen. Das bringt auch Robes selbst mit folgendem Satz, wie ich meine, gut zum Ausdruck: „Nutzer können … demselben Microcontent in ganz unterschiedlichen Situationen begegnen“ (Seite 14): Eben! Und es können dann natürlich auch ganz unterschiedliche Lernprozesse resultieren, die sich theoretisch unterschiedlich deuten lassen.
  • Gegen Ende des Beitrags liest man folgendes: „In wissensbasierten Arbeitszusammenhängen ist … die organisatorische Unterscheidung zwischen Lernen, Wissensmanagement, Performance Support und Kommunikation wenig sinnvoll“ (Seite 15). Vor dem Hintergrund der vorab gelieferten Argumente ist diese Folgerung nachvollziehbar. Aber: Wenn die Unterscheidung nicht mehr sinnvoll ist, wie nennt und organisiert man es dann? Vielleicht bräuchte man eine eigene Kategorie für das Lernen in Unternehmen versus Lernen in Bildungsinstitutionen? Oder gibt es neben Lernen, Wissen, Kommunikation einen ganz anderen Begriff, der besser passt? Eine schlaue Idee habe ich dazu leider auch nicht.

Getrennte Lager – aber strikt

„E-Learning. Theorien, Gestaltungsempfehlungen und Forschung“ – so lautet eine Neuerscheinung beim Huber Verlag von einem jungen Psychologen: Dr. Günter Daniel Rey. Das Buch ist – würde ich jetzt mal sagen – ein Lehrwerk und widmet sich den psychologischen Grundlagen des E-Learning – übrigens ohne viel Aufhebens um den Begriff „E-Learning“ und dessen Definition zu machen. Zum Buch gibt es auch eine Web-Seite, nämlich hier, auf der sich zwar nicht alle Inhalte aus dem Buch, aber immerhin eine ganze Menge informativer Überblicke wie auch Details zu verschiedenen psychologischen Begriffen und Konzepten rund um das Lernen mit digitalen Medien finden. Auch ausführlichere Informationen über die (experimental-)psychologische Forschung findet man sowohl im Buch als auch auf der Web-Seite. Beides (also Buch und Web-Seite) ist systematisch aufgebaut; was ich bisher gelesen habe, ist verständlich und verweist auf klassische wie auch aktuelle psychologische Literatur. So weit so gut: Ich freue mich, auf das Buch (nach Zusendung) gestoßen (worden) zu sein und werde es sicher nutzen und zu bestimmten Zwecken auch empfehlen.

Aber: Man mache mal einen kleinen Versuch und lege das Autorenverzeichnis des diesjährigen GMW-Tagungsbandes neben das Literaturverzeichnis (hier) von Reys Buch. Und, was stellt man da fest? Kein Apostolopoulos, kein Baumgartner, auch keine Bachmann und Bremer, kein Schulmeister, kein Wolf – nichts! Auch kein Mandl (obschon Psychologe), aber – Gratulation! – immerhin einmal Kerres (Web 2.0). Jeder möge aber gerne weitersuchen … EIN Thema, ZWEI Lager, wie sie getrennter nicht sein könnten.

Nun könnte man ja sagen: Das ist halt die psychologische Seite des E-Learning und die anderen … na ja, vielleicht bilden die dann eben die pädagogische und die informationstechnische Seite. Aber das wäre wohl eine Ausrede, denn: Natürlich brauchen WIR auch die psychologischen Grundlagen und viele Beiträge in den GMW-Tagungsbänden zitieren auch psychologische Literatur, wie man sie in Reys Buch findet. Aber die pädagogisch-didaktischen, die informationstechnischen, auch soziologischen Erkenntnisse – die braucht man in der Psychologie nicht, wenn es um E-Learning und immerhin auch um Gestaltungsempfehlungen geht? Wirklich nicht? Ich finde es schade, wie dick die Mauer ist, die es hier offenbar gibt. Ich komme selbst aus der Psychologie und weiß meine Ausbildung (Diplom) sehr zu schätzen. Aber diese so offensichtliche Lagerbildung begreife ich einfach nicht, wenn es uns doch darum gehen sollte, das Lernen und Lehren mit digitalen Medien mit unseren Erkenntnissen besser zu verstehen und damit auch besser zu unterstützen. Wäre das nicht Anlass genug, voneinander Kenntnis zu nehmen? Wie an anderen Stellen schon formuliert, habe ich natürlich eine Thesen, warum das so schwierig ist: Erkenntnistheoretische und methodische Differenzen zwischen diesen beiden Lagern in der BIldungsforschung dürften hier eine ganz wesentliche Rolle spielen.

Medienkompetent, informationskompetent oder einfach nur mündig?

E-Learning – die Sicht der Studierenden – so lautet das neue Themenspecial von e-teaching.org (hier). Eine Reihe neuer Beiträge und Verweise auf bereits bestehende widmen sich Fragen wie: Wie beurteilen die mit Computer und Internet aufgewachsenen „digital natives“ selbst die E-Learning-Aktivitäten der Lehrenden? Wie selbstverständlich ist der Umgang der Studierenden mit Computer und Internet, nicht nur in der Freizeit, sondern auch bei konkreten Studienaktivitäten? Erkenntnisse und Mythen zur Netzgeneration und Fragen zur Medienkompetenz – sie reißen also nicht ab. Ob und wie man Studierende zu Medienakteuren machen und man sie auf diesem Wege medienkompetenter machen könnte, damit setzt sich ein neuer e-teching.org-Artikel von Simone Haug (hier) auseinander (Achtung: Auf Seite 5 ist ein Absatz doppelt!): Sie stellt eine Reihe verschiedene Projekte und Initiativen von Hochschulen zur Medienkompetenzförderung zusammen und kommt zu dem Schluss, dass es bisher noch daran mangelt, die Perspektive und Bedürfnisse der Studierenden einzubeziehen. Spotan möchte man dem zustimmen, denn wer sollte schon ernsthaft etwas gegen Lerner- oder Studierendenzentrierung haben, was mit diesem Postulat ja in der Regel verbunden wird. Denkt man länger darüber nach, stellt sich dieses Postulat aber als gar nicht so einfach heraus:

Jeder, der bereits länger Lehre betreibt, weiß, wie schwer sich Studierende (verständlicherweise) tun, ihre Bedürfnisse überhaupt zu artikulieren. Zu Recht erwarten sie doch AUCH, dass WIR ihnen helfen, einen Standpunkt und damit auch eigene Interessen weiterzuentwickeln. Keinesfalls also kann es so einfach gehen, dass wir zu Beginn des Studiums einen großen Fragebogen an unsere „Kunden“ senden, auf diesem Wege feststellen, was diese denn wünschen, und dann „kundenorientiert“ das Gewünschte anbieten. Es wird – so meine These – Unbefriedigendes herauskommen und zwar auch für die Studierenden selbst.

Mir fällt dabei auf, dass wir noch gar kein vernünftiges Partizipationsmodell haben, mit dem wir die teils berechtigte, teils leichtfertige Forderung nach Studierendenorientierung überhaupt umsetzen können. Das gilt wohl auch für die Frage der Medienkompetenz, die stellenweise auch als Informationskompetenz daherkommt (siehe hierzu z.B. Kerres) und die letztlich Dinge einfordert, die alles anderer als neu sind – manchmal ist man geneigt zu sagen, es gehe doch wie schon lange (aber oft vergessen) um etwas, was man früher Mündigkeit nannte. Die ist logischerweise in einem „digitalen Zeitalter“ auch mit der Anforderung verknüpft, digitale Medien und Angebote zu kennen, vernünftig zu nutzen, kritisch zu hinterfragen , experimentell zu erproben, im Bedarfsfall auch begründet abzulehnen etc. Die von Haug zusammengestellten Beispiele geben einen guten Einblick in die bisherigen Möglichkeiten an Hochschulen, die Studierenden hier zu fördern. Sie zeigen aber auch die Schwierigkeiten auf – angefangen bei der curricularen Einbindung über den Umgang mit Zeit und Workload im Studium bis zur Selbstüberschätzung der Studierenden. Ist die Integration der Studierenden-Perspektive dafür eine Lösung? Oder ist das nicht eher ein Teil des Problems, weil wir hier noch keine besonders kreativen Strategien haben? Ich jedenfalls bin hier oft hin- und hergerissen: Wo tue ich gut daran, genau auf die Wünsche der Studierende zu hören und wo ist genau das kontraproduktiv? Welche Bedürfnisse kommen denn eigentlich woher und sind es wirklich die, die die Studierende selbstbestimmt entwickelt haben? Ich will jetzt damit NICHT sagen, dass ich als Lehrende besser wüsste. Es geht mir darum, dass wir jedenfalls intelligentere Beteiligungsmodelle bräuchten als sie z.B. in der Ökonomie verwendet werde, auf die als Vorbild zu schauen sich leider schon viele gewöhnt haben. Ja, soweit meine (etwas ungeordneten) Assoziationen zu einem Teil des neuen Themenspecials von e-teaching.org.

Den Jackpot knacken

Angesichts unserer ersten Gehversuche in Sachen „Peer Review mal anders“, sammle ich gerade, was mir zum Thema Peer Review in die Hände fällt. Dabei muss ich natürlich feststellen, dass fast alle Überlegungen, die wir im Kontext der bisher noch nicht so erfolgreich laufenden Community „(Bildungs-)Wissenschaftler 2.0“ vor Augen haben, schon länger im Gespräch sind. Nun, vielleicht wäre es tatsächlich besser gewesen, dies zunächst einmal aufzuarbeiten, aber dann kommt das halt jetzt in nächster Zeit. Mir ist das Thema SEHR wichtig, denn Peer Reviews spielen eine herausragende Rolle für die Entwicklung von Wissen einerseits und für wissenschaftliche Karrieren andererseits.

Aus den zahlreichen, in den meisten Fällen aber durchweg englischsprachigen Beiträgen (wiederum am häufigsten bezogen auf Naturwissenschaften, vor allem Medizin) zu diesem Thema, möchte ich an dieser Stelle exemplarisch auf EIN lesenswertes Beispiel aufmerksam machen:

Smith, S. (2006). Peer review: a flawed process at the heart of science and journals. Journal of the Royal Society of Medicin, 99, 178-182. Online hier.

Smith war jahrelang Herausgeber einer britischen Zeitschrift für Medizin (BMJ) und hat dort das Thema Open Access und neue Formen des Review-Prozesses vorangetrieben. Der Beitrag ist eine gute und verständliche Einführung in das Thema Peer Review – und unterhaltsam zu lesen obendrein. Gleich zu Beginn stellt Smith die aus meiner Sicht wichtige Frage, wer den eigentlich ein „Peer“ ist, wobei er da vor allem inhaltliche Differenzierungen (genau das gleiche Fachgebiet oder „nur“ die gleiche Disziplin etc.) vorschlägt. Genauso unklar aber finde ich, wie das mit den unterschiedlichen Expertise-Levels (also Fachwissen plus Erfahrung) bei solchen Begutachtungen ist. Darüber habe ich bisher noch nichts gefunden. Nachdem das Feld, was man als Peer Review gelten lassen kann, abgesteckt ist, kommt die Frage, ob das Peer Review-Verfahren denn „funktioniert“. Nun ist das natürlich eine Frage der Ziele, die man verfolgt. Selektion funktioniert natürlich auf jeden Fall – aber um welchen Preis? Smith ist hier eher nüchtern – er kennt viele Beispiele, in denen der Erfolg beim Peer Review eher dem Knacken eines Jackpots gleicht. Dem Faktor Zufall komme eine eminente Bedeutung zu. Bei seiner Analyse, was denn die Defizite des klassischen Per Reviews sind, clustert er die Probleme in vier Gruppen: Peer Reviews sind (a) langsam und teuer, (b) inkonsistent (in mehrfacher Hinsicht), (c) fehlerbehaftet mit einer starken Tendenz zum Matthäus-Effekt (wer hat, dem wird gegeben) und (d) immer in Gefahr, missbraucht zu werden. Und wie könnte man es besser machen? Hier sammelt er in aller Kürze die bisherigen Problemlöseversuche, nämlich: die Identität der Autoren verbergen (was aber schwer ist), Reviewer trainieren, den gesamten Review-Prozess öffnen und (Achtung) der Wissenschaft mehr Vertrauen schenken. Interessant ist, dass Smith von Versuchen berichtet, bei der Zeitschrift BMJ einige dieser Verfahren zu selbst testen und experimentell zu überprüfen (vor allem „blind“-Verfahren und Training) – leider ohne dass es Verbesserungen gab.

Am meisten überzeugt hat mich in der Literatur bisher das Verfahren, das bei der Zeitschrift Atmospheric Chemistry and Physics angewandt wird. In aller Kürze wird das Vorgehen, das auf eine Öffnung des Review-Prozesses setzt, dabei aber Elemente des klassischen Peer Reviews beibehält, von Pöschl und Koop hier beschrieben. Ebenfalls lesenswert und natürlich auch online abrufbar, nämlich hier! Was mich wirklich wundert ist, dass es dazu im deutschsprachigen Raum so wenige Nachahmer gibt, und dass vor allem die Bildungswissenschaften auf diesem Sektor weit hinter den Naturwissenschaften liegen. Wenn das keine Herausforderung ist :-).

Nachtrag: Noch eine interessante (sicher schon längst bekannte) Fundstelle zum Thema im Kontext des Open Access befindet sich hier. Darin findet sich auch ein weiterer Artikel vom oben zitierten Modell, beschrieben von Pöschl.

Förderlogik – zum Mitdenken

Die DFG stellt gegenwärtig ihr „Förder-Ranking 2009“ vor (hier geht es zur Pressemitteilung und hier geht es zu dem dazugehörigen ca. 200 Seiten umfassenden Gesamtwerk). Ich will aber an dieser Stelle eigentlich nur auf den Wortlaut der Pressemittelung hinweisen, die ich mehrmals gelesen und mich gefragt habe: Was will mir das sagen?

Zitat: „Das neue DFG-Ranking macht deutlich: Die Hochschulen haben die Chancen erkannt, die sich ihnen durch einen intensiveren Wettbewerb eröffnen. Und ein ganz wesentlicher Motor in diesem Wettbewerb sind die Fördergelder der DFG und anderer Quellen“, betonte DFG-Präsident Professor Matthias Kleiner bei der Vorstellung des Berichts. Dabei hängen Fördergelder, Wettbewerb und Profilbildung in mehrfacher Weise zusammen: Die Hochschulen nutzen die eingeworbenen Drittmittel immer stärker, um ihre Forschungsprofile zu schärfen. Mit diesen wiederum verbessern sie ihre Chancen im Wettbewerb um weitere Drittmittel. Zitatende

Was heißt das das jetzt? Hochschulen werben Drittelmittel ein, um ihr Forschungsprofil zu schärfen, was wahrscheinlich wiederum so viel heißt wie: Konzentration in der Forschung auf spezielle Themen (und auch Methoden?) und passende Partner. Wenn die Hochschulen das tun, dann haben sie mehr Chancen im Wettbewerb, spricht, sie bekommen wieder Drittmittel. Die setzt man dann ein, um weiter am Profil zu schärfen usw. Hab ich das so richtig verstanden? Man bekommt das Gefühl nicht los, dass da etwas zum Selbstzweck wird, nämlich das Profil und die Drittmittel – jedenfalls, wenn man es aus der Perspektive des „Wettbewerbs“ betrachtet. Da sind Fördergelder offensichtlich an Profilschärfung zwingend gebunden. Gibt’s auch noch was anderes als die Perspektive des Wettbewerbs? Hmmm … ach, bestimmt nicht. Schärfen wir also unser Profil. Was denn ein Profil ausmacht? Ja, also … Wenn insgesamt die 20 bewilligungsstärksten Hochschulen in Deutschland zwischen 2005 und 2007 mehr als 60 Prozent aller DFG-Mittel eingeworben haben und bei 40 Hochschulen schon ein Anteil von 88 Prozent erreicht ist, dann ist mit Profil ja vielleicht das Profil der eingeworbenen Drittmittel gemeint? Jedenfalls schließt sich hier der Kreis, denn die Chancen dieser Hochschulen im Wettbewerb steigen – logisch. Noch Fragen?

Peer Reviews: (keine) Zeitverschwendung?

In der Community „(Bildungs-)Wissenschaftler 2.0“ hat Joachim Wedekind auf einen sehr interessanten Blogeintrag von George Siemens zum Thema Peer Reviews aufmerksam gemacht. In unserer Community geht es ja unter anderem um die Frage, wie man ein öffentliches Peer Review etablieren könnte, was natürlich auf kritischen Urteilen und einige Unzulänglichkeiten des klassischen Peer Reviews aufbaut. Dass das nicht leicht ist, habe ich an anderer Stelle (hier) bereits erörtert. Nun schildert Siemens seine Erfahrungen mit dem Peer Review und vieles von dem, was er sagt, kann ich nur bestätigen. Ich empfehle, den Beitrag ganz zu lesen, und möchte nur hervorheben, was ICH besonders bemerkenswert fand:

  • Erstens die Gründe, weshalb klassische Peer Reviews einen mitunter unzufrieden machen: Peer Review-Verfahren sind in der Regel sehr langsam; ihre Qualität ist abhängig davon wie treffend die Auswahl der Gutachter zum Thema des Beitrags ist; und sie sind nicht auf Entwicklung (der Beiträge und ihrer Autoren) ausgerichtet.
  • Zweitens die Beispiele: Siemens beschreibt, wie lange er an Artikeln, aber auch an deren Begutachtung sitzt. Die angegebenen Zeiten kann ich gut nachvollziehen. Selbst außerhalb offizieller Review-Verfahren sitze ich z.B. am Gegenlesen und Kommentieren von Texten meiner Mitarbeiter (bei ca. 12 Seiten) bis zu drei Stunden. Für ein ordentliches Review für eine Zeitschrift, benötige ich ca. vier Stunden – je nachdem wie gut oder schlecht der Text ist: Je mehr Kritik, umso länger dauert es natürlich.
  • Drittens die Unzufriedenheit mit schlechten Reviews: Auch das kann ich bestätigen. Teilweise gibt es Gutachten, über die man sich nur aufregen kann, deren Inhalt deutlich zeigen, dass der Reviewer keine Ahnung vom Thema hat oder aber keine Lust hatte, den Text richtig zu lesen geschweige denn vernünftig zu kommentieren. Aber es gibt auch Gegenbeispiele (die Siemens ebenfalls schildert) – Beispiele, die zeigen, dass Reviews sowohl für den Reviewer als auch für den Autor keine verschwendete Zeit sein müssen.
  • Viertens der Hinweis darauf, dass die skizzierten Probleme vor allem bei interdisziplinären Themen wie Wissen oder Lernen mit digitalen Medien weitgehend ungelöst sind. Auch da kann ich nur zustimmen. Auch wir an der Professur wissen oft nicht, in welcher Zeitschrift ein Beitrag gut aufgehoben wäre. Darüber wurde in der Community im Übrigen auch schon kurz diskutiert. Wir behelfen uns oft damit, dass wir einfach einen Arbeitsbericht daraus machen. Das geht schnell, ist online greifbar, aber leider (auch wenn mir hier mein Blog-Kommentator Her Dr. Graf wieder widersprechen wird ;-)) nicht sonderlich förderlich für die wissenschaftliche Karriere – na ja, vielleicht NOCH nicht förderlich.

Noch haben wir in unserer Community keinen systematischen Austausch von Vorschlägen für eine Entwicklung von Review-Prozessen. Joachims Link aber ist schon mal ein erster Schritt. Der Beitrag von Siemens jedenfalls umfasst ein paar Eckpunkte, an denen man ansetzen kann. Ich nehme mir auf jeden Fall vor, das Thema weiterhin oben auf der Agenda zu haben.