Man liest sogar

In Kürze wird der Wissenschaftsrat auf einer Veranstaltung (hier das Programm) über die Ergebnisse einer Initiative berichten, die bereits 2004 beschlossen wurde. Im Hochschulmagazin duz kann man hier nachlesen, dass es dabei um ein neues Forschungsrating geht – entstanden aus der Unzufriedenheit mit bekannten nationalen und internationalen Verfahren. Diese dienen dazu, Ranglisten zu erstellen, an denen Wissenschaftler wie auch Studierende (und Förderinstitutionen) ablesen können sollen, wie gut eine Universität ist.

Das neue Verfahren des Wissenschaftsrats arbeitet vor allem mit Peer Reviews und kombiniert quantitative mit qualitativen Daten. „Statt nur die Zahl von veröffentlichten Aufsätzen in Fachzeitschriften zu zählen, werden ausgewählte Publikationen von den Gutachtern auch gelesen und bewertet“, so heißt es im besagten duz-Artikel.

Im Pilotverfahren wurden vier Fächer untersucht. Ziel war es unter anderem, die Spezifika der Fächer für ein Rating besser herauszuarbeiten. Der Ranking-Kritiker Richard Münch (Uni Bamberg) war einer der Gutachter in der Pilotstudie, und beschreibt im Artikel den Aufwand als sehr hoch: „Jedes einzelne der 16 Mitglieder der Gutachtergruppe hat im Zeitraum von zwei Jahren etwa drei Monate seiner Arbeitszeit in das Begutachtungsverfahren gesteckt“, so wird er zitiert.

16 mal drei Monaten innerhalb von zwei Jahren für einen Pilotbetrieb mit vier Fächern, das macht zusammen genau vier Jahre Arbeitszeit eines Wissenschaftlers oder eben ein Jahr Arbeitszeit von vier Wissenschaftlern für einen Bruchteil dessen, was an sich Gegenstand eines solchen Ratings wäre. Immerhin kommen dann die so beschäftigten Wissenschaftler nicht zum Forschen, sodass vielleicht der Evaluationsgegenstand ein bisschen kleiner wird. Wenn es das ist, was angestrebt wird (nämlich weniger Forschungsoutput, weil dieser vielleicht eh zu redundant, zu wenig neu o. ä. ist), dann hätte ich da noch ein paar andere Ideen, wie man das erreichen kann: z.B. mehr Zeitinvestition in die Lehre, mehr Personal für Betreuungsleistungen etc.

Um nicht falsch verstanden zu werden: Ich finde es gut, dass man die bisherigen Ranking-Verfahren kritisch hinterfragt. Es ist auch völlig legitim, nach Alternativen zu suchen. Positiv ist, dass man erkannt hat, wie wichtig die Beachtung verschiedener Fächerkulturen ist. Und ich schließe mich auch gerne der Ansicht an, dass die Fachöffentlichkeit und alle interessierten Bürger ein Recht darauf haben, zu erfahren, was an Hochschulen so passiert – also auch in der Forschung. Aber ginge das nicht auch anders? Mit mehr Transparenz, die jeder Wissenschaftler und jede Universität jenseits der bloßen Marketing-Maßnahmen herstellt? Mit mehr echter gegenseitiger und vor allem kooperativ (versus auf Selektion) angelegter Kritik, die der Sache dient?

Außerdem: Glaubt denn jemand ernsthaft, dass Peer Review-Verfahren weniger anfällig für Fehleinschätzungen sind als manipulierbare Zählmethoden? Und was ist mit dem Aufwand? Wie lässt sich das rechtfertigen? Werden, wie der Artikel in der duz an einer Stelle suggeriert, tatsächlich Bund oder Länder die Ergebnisse heranziehen, um schwächeren Hochschulen unter die Arme zu greifen? Kann ich mir nicht vorstellen!

Übrigens: In einem Workshop der GMW 2012 zum Thema E-Science (Programm) habe ich mit Thomas Köhler und Klaus Wannemacher kurz diskutiert, welche Vorteile es hätte, wenn sich Wissenschaftler zu einer Publikationsbegrenzung verpflichten würden – also z.B. nur zwei Artikel im Jahre zu schreiben. Wir sind unter anderem zu dem Schluss gekommen, dass das eine Maßnahme zur Qualitätssteigerung sein und insbesondere den Diskurs über Publikationsinhalte erhöhen könnte. Und genau diesen Diskurs könnte man sicher mindestens parallel zu Reviews mit Selektionscharakter nutzen, um sich Einsicht in die Qualität von Forschung zu verschaffen.

Schwingt das Pendel zurück?

Im Mai 2011 hat Tom Reeves (online hier) einen Text veröffentlicht, in welchem er die Frage stellt, ob Strenge bzw. Präzision (rigor) und Relevanz (relevance) wirklich Gegensätze sein müssen und wie man zwischen diesen beiden Kriterien, die häufig verschiedene methodische Schulen davon abhalten zu kooperieren, eine Balance erreichen könnte.

Im Abstract zum Text liest sich das so:

This paper addresses a complex question: Can educational research be both rigorous and relevant? The first eight years of the first decade of the 21st Century was a time when federal support for educational research in the USA emphasized rigor above most other concerns, and the last two years may mark the beginning of a shift to more emphasis on impact. The most desirable situation would be a balance between rigor and impact. Educational designers, teachers, and other practitioners would especially stand to benefit from such a balance because of the likelihood that it will enhance the impact of educational research. Educational design research is proposed as having enormous potential with respect to striking an appropriate balance between rigor and relevance in the service of the educational needs of learners, teachers, designers, and society at large.”

Leider enthält der Beitrag wenig neue Gedanken. Interessant aber fand ich Reeves Beobachtung, dass sich in den USA eine Veränderung anbahne (was er mit einem Pendelausschlag vergleicht) und man bei der Forschungsförderung wieder stärker die praktische Relevanz im Auge habe. Dass man praxistaugliche Forschung und damit auch entwicklungsorientierte Forschung nicht irgendwie, sondern systematisch, unter Nutzung sorgfältig bedachter Prinzipien, transparent sowie mit Bezug zu bestehenden Erkenntnissen und Theorien durchführt, erscheint mir allerdings selbstverständlich. Der Neuigkeitswert von Reeves Forderungen ist aus meiner Sicht entsprechend gering.

Auch die Schlussfolgerung am Ende fand ich eher enttäuschend: „Rigor versus relevance will likely remain an ongoing debate among many social scientists. Ultimately, it is an issue that each individual educational researcher must confront and resolve.” Ich finde, das ist genau nicht der beste Weg, dass das jeder Forscher individuell löst. Keinesfalls jedenfalls dürfte das die Chance erhöhen, dass neben Experimentalforschung, Korrelationsforschung, qualitativer Forschung etc. AUCH eine Entwicklungsforschung in den Bildungswissenschaften eine tragfähige Basis erlangt, gelehrt wird und sich entsprechend entfalten kann.

Gefesselte Forschung

Anlässlich einer Biografie von Steve Jobs macht sich Joachim Wedekind in seinem Blog (hier) Gedanken zu der Frage, wie man es hinbekommt, dass Teams intrinsisch motiviert arbeiten. Er kommt zu dem Schluss, dass sich aus bestehenden Beispielen (etwa bei Apple und anderswo) keine Richtlinien ableiten lassen und dass man mitunter einfach auch Glück haben müsse. Dieses „Glück“, intrinsisch motivierte Teams bilden zu können, – und jetzt komme ich zu der Passage, die mich besonders aufhorchen ließ – hat Joachim selbst bisher vor allem in praxisorientierten Projekten und weniger in Forschungsprojekten gehabt. Er stellt in diesem Zusammenhang allerdings sogleich in Frage, ob das wohl ein Zufall oder eben keiner ist. Ich denke, es ist kein Zufall und das dürfte mit der Art von Forschung zu tun haben, die wir heute hoch halten: eine stark formalisierte Forschung, die mit „hohen Qualitätsstandards“ gerechtfertigt und entsprechend eingefordert wird. Kritisches Hinterfragen von Standards (und damit Konventionen), die aus Forschungsprojekten mitunter bloße Verwaltungsakte machen, ist nicht erwünscht, sondern mit dem Generalverdacht belegt, dass man diese nicht beherrscht, wenn man an ihnen zweifelt. Eine Forschung, die sich nur mehr in engen Grenzen bewegen und den eingeschlagenen Pfad nicht (mehr) verlassen darf, ist eine gefesselte Forschung. Aber vielleicht war und ist das eine notwendige Folge der seit der Jahrtausendwende „entfesselten Hochschule“, die man auf anderem Wege wieder einfangen musste. Für die Sache – so meine Meinung – ist das fatal: Was ist das für eine Forschung, bei der Forscher nur mehr nach externen Anreizen (Drittmittel, Rankings, Rufe) schielen? Warum sollten aus der Forschung keine Anwendungen (Produkte) entstehen, an denen man seine Freude hat? Wo, wenn nicht in der Forschung, sollte man Grenzen überschreiten und dazu auch motiviert sein und werden?

Geld, Reputation, Gestaltungsfreiheit, Zeit

Geld, Reputation, Gestaltungsfreiheit, Zeit – das sind laut neuester Empfehlungen des Wissenschaftsrats „zur Bewertung und Steuerung von Forschung“ (online hier zugänglich) die wichtigsten „steuerungswirksam einsatzbaren Anreize“ an Hochschulen. Diese konsequent einzusetzen, befürworten die einen, um die Leistungsfähigkeit in der Forschung zu erhöhen. Die anderen kritisieren dies als kontraproduktiv und attestieren solchen Verfahren eher negative Effekte für das Wissenschaftssystem. Die Gegensätzlichkeit dieser Positionen sowie deren Unvereinbarkeit hat jetzt der Wissenschaftsrat jetzt erkannt und liefert Empfehlungen dafür, wie man damit umgehen kann, falls es gelingt, dass man „beiden Seiten Zugeständnisse abverlangt“ (S. 10). Erklärtes Ziel des Papiers ist es, „die Auseinandersetzungen um die Bewertung und Steuerung von Forschung zu versachlichen“ (S. 13), was voraussetzt, dass diese bislang als unsachlich wahrgenommen wird. Zudem soll „eine Balance der unterschiedlichen Interessen“ (S. 13) angestrebt werden. was daraufhin hindeutet, dass hier verschiedene Wissenschaftlergruppenoffenbar tatsächlich verschiedene Interessen haben (Geld, Reputation, Gestaltungsfreiheit, Zeit?).

Zunächst werden einige Beobachtungen zusammengetragen zu: (a) Bewertung durch Peers, (b) Bewertung durch quantitative Indikatoren, (c) Evaluationsverfahren, (d) Ratings und Rankings, (e) Steuerung über Mittelallokation (leistungsorientierte Zuweisung des Landesmittel an Hochschulen, leistungsorientierte Mittevergabe innerhalb der Hochschulen und W-Besoldung), (f) Standards „guter wissenschaftlicher Praxis“, (g) Folgen für die Lehre und (h) wissenschaftspolitischen Rahmenbedingungen. Dann folgende die eigentlichen Empfehlungen: zunächst „übergeordnete Empfehlungen“, die – per definitionem – relativ abstrakt sind, und dann einzelne Empfehlungen, die sich auf die gerade genannten Gegenstände der Beobachtung beziehen.

Es ist aus meiner Sicht durchaus empfehlenswert, sich das durchzulesen. Viele Punkte sind derart, dass sie rasch auf Zustimmung stoße werden, so z.B. weniger Dokumentationen und Evaluationen, indem das alles besser koordiniert und getaktet wird. Dünn sind die Vorschläge zum Peer Review (S. 37 f.): Mehr Transparenz durch offene Peer Review-Verfahren werden z.B. gar nicht erwähnt. Dass der Begriff der Forschungsleistung möglichst breit gefasst werden sollte (S. 34), hört sich ebenfalls gut an: Hinweise auf die damit (unter anderem) verbundene Notwendigkeit, dass auch eine Diskurs über das Wissenschaftsverständnis in den einzelnen Disziplinen stattfinden muss, fehlt allerdings. Am Glauben, dass Wettbewerb prinzipiell die Dinge heiligt, wird weitgehend festgehalten, wenn z.B. empfohlen wird, Drittmittel, die „kompetetiv eingeworben“ wurden, höher zu gewichten als solche, die in nicht-kompetetiven Verfahren vergeben worden sind (S. 40). Auch wenn man vielen Ratings keine hohe Qualität bescheinigt, hält der Wissenschaftsrat auch in den aktuellen Empfehlungen an Ratings als Maßnahme der Steuerung von Forschungsleistungen fest (S. 44). Und zur W-Besoldung mag man jetzt noch nichts sagen (S. 46); dazu soll es eine eigene Empfehlung geben.

Was ich jetzt davon halte? Es ist gut, DASS sich der Wissenschaftsrat mit dem Thema beschäftigt, zeigt es doch, dass die in den letzten Jahren mehr gewordenen kritischen Stimmen nicht mehr überhört werden (können). Man kann auch einige „Zugeständnisse“ aus dem Empfehlungen ebenso wie durchaus sinnvolle Vorschläge herauslesen. Alles in allem aber läuft es meiner Einschätzung nach auf ein paar Korrekturen des gegenwärtigen Steuerungssystems hinaus, keinesfalls aber auf einen Kurswechsel. Es kann sich ja jeder (Wissenschaftler und Hochschullehrer) mal fragen, womit er sich am schnellsten locken lässt (mehr Geld, mehr Reputation, mehr Gestaltungsfreiheit, mehr Zeit?) und ob er einen echten Kurswechsel mittragen würde …

Frisches Drauflosforschen versus fabulierende Begriffserfindung?

Was mir bei den Soziologen gut gefällt, ist ihre Neigung, wissenschaftstheoretische und methodologische Fragen ausgiebig zu besprechen und dabei eine gewisse Vielfalt auch zu „leben“. Nun bin ich keinesfalls ein Kenner der Soziologie; viele soziologische Texte verstehe ich auch nicht besonders gut, aber hin und wieder lese ich doch etwas aus dieser Ecke und finde dann oft Anregungen auch für die Bildungswissenschaft, wo ich diese Auseinandersetzungen in der Form seltener finde. Der Text „Die Empiriegeladenheit von Theorie und der Erfindungsreichtum der Praxis“ von Stefan Hirschauer (dankenswerter Weise hier online abzurufen) ist ein solcher Text (aus dem Jahr 2008), der bereits im Titel verrät, worum es geht, nämlich um die oft implizite Verflechtung von Theorie und Empirie. Ausgangspunkt der Überlegungen von Hirschauer ist der beständig weiter tradierte, mit Klischees belastete Dualismus vom Finden des „Empirikers“ mit seinem „frischen Drauflosforschen“ und vom Erfinden des „Theoretikers“, der sich dabei im Fabulieren verliert. Aus meiner Sicht besonders interessant sind die auf der Seite 172 angesprochenen ideosynkratischen Erfahrungen des Wissenschaftlers und deren Einfluss, aber auch Chancen für Theorie und Empirie gleichermaßen. Speziell der in der Bildungsforschung sich zunehmend ausdehnende Forschungsstil in Anlehnung an das psychologische Experiment und die klassische Korrelationsforschung nämlich verbannt die Erfahrung des Forschers als Störvariable oder degradiert diese zur bloß „anekdotischen Erfahrung“, die man, wenn überhaupt, immer nur ganz verschämt anführt, um sie sogleich als „natürlich nicht evidenzbasiert“ in ihrer Bedeutung wieder zu relativieren. Im Kern geht es Hirschauer in seinem Text allerdings um etwas anderes, nämlich um die wechselseitige Angewiesenheit von Theorie und Empirie, die man zwar oft in irgendwelchen Texten anmerkt, aber im wissenschaftlichen Alltag in der Regel ignoriert. Das gelte sowohl für die „Theoriebeladenheit“ der empirischen Forschung (die sich z.B. in forschungsmethodischen Entscheidungen niederschlägt) als auch – weniger beachtet – für die „Empiriegeladenheit“ von Theorie in Form der Einbettung des Wissenschaftlers in eine bestimmte Zeit und an einen bestimmten Ort sowie in Form impliziter Fälle, die der Wissenschaftler im Sinn hat, wenn er Theorien generiert. Diese beiden Einsichten müssten sich aufeinander zubewegen, um einen Fortschritt zu erzielen. In Hirschauers Worten (S. 184): „Die Theoriegeladenheit der Beobachtung ist keine begriffliche ´Verschmutzung´ reiner Daten, und die Empiriegeladenheit von Theorien ist keine empirische Verschmutzung reiner Begriffsbildung. Beides ist vielmehr, weniger berührungsscheu betrachtet, eine Pforte für eine fruchtbare Hybridisierung, bei der Theorie und Empirie wechselseitig Innovationsdruck aufeinander ausüben“.

Was man sich öfter leisten sollte

Das ZEITLast-Projekt, auf das ich in diesem Blog bereits verwiesen habe (hier), hat großes Interesse auch in den Massenmedien auf sich gezogen. Aber, so Rolf Schulmeister: „Unsere Ergebnisse werden … auch immer wieder ungläubig betrachtet und angesichts so gewichtiger Befragungen wie des Studierendensurveys oder der Sozialerhebung des Deutschen Studentenwerks angezweifelt, in Kommentaren zu Zeitungsartikeln im SPIEGEL, der ZEIT etc., in Briefen an uns und in Artikeln anderer Wissenschaftler.“ Die Zweifel, so Schulmeister, könnten daher rühren, dass die Methodik nicht eingehend studiert werde, wie sie im Buch (leider nicht online zugänglich) dargestellt werde. Nun gibt es online einen Text zu lesen (hier), der die Kritik kritisiert und auf einige Probleme anderer Studien und darauf hinweist, wie die ZEITLast-Studie „richtig“ zu lesen ist.

Über die Studie und die spezielle Kritik plus Metakritik hinaus finde ich es sehr sinnvoll, solche Auseinandersetzungen in dieser Form zu führen. Viel zu wenig setzen wir uns wirklich intensiv mit einzelnen Konzepten oder Studien in Zeitschriftenartikeln oder Büchern auseinander – immer in der Zeitnot, die unter dem Druck entsteht, selbst ausreichend zu publizieren. Den Erkenntnisfortschritt befördert das sicher nicht. Von daher lohnt die Lektüre auch als Beispiel für einen textbasierten Dialog, den wir uns öfter „leisten“ sollten.

15 Kilo Wissen

Nun wird es aber Zeit, dass ich endlich auch mal ein paar Worte über das Ende und den Neuanfang unserer Arbeit im Kontext „digitale Medien in der Fahrlehreraus- und -weiterbildung“ verliere. Im Mai haben wir das EU-Projekt „Driver Instructor Education 2.0“ abgeschlossen. Sowohl Tamara (hier) als auch Frank (hier) haben darüber bereits ausführlich berichtet (zum Projektüberblick mit weiterführenden Links siehe hier). Auch im digitalen Zeitalter gilt es nach wie vor, die Ergebnisse zu materialisieren. Herausgekommen sind „15 Kilo Wissen“ (in Form zweier Pakete mit dicken Aktenordnern an die EU): Was für eine schöne Möglichkeit der Quantifizierung von Forschungsoutput … mich wundert es, dass man das noch nicht als reguläres Maß eingeführt hat. Fast nahtlos können wir nun ab Juni im Rahmen eines bmbf-Projektes die kommenden eineinhalb Jahre auf diesem Gebiet weitermachen. Unter dem Titel „Partizipative Qualitätsentwicklung in Fahrlehrerausbildungsstätten zur videobasierten Förderung von Lehrkompetenz“ soll das Erfahrungswissen von Ausbildern zum Einsatz von Video in der Fahrlehrerausbildung in einer virtuellen Community gesammelt, zum gegenseitigen Nutzen ausgetauscht und dabei auch neue Vorgehensweisen entwickelt werden.

Mich persönlich interessieren Kontexte wie die Fahrlehrerausbildung vor allem vor dem Hintergrund, wie sie sich z.B. von akademischen Kontexten unterscheiden, welche besonderen Herausforderungen sie stellen und was man daraus generell für das Lehren und Lernen lernen kann. Für Tamara freue ich mich, dass sie nun ihre in den letzten eineinhalb Jahren aufgebauten Kenntnisse und Fähigkeiten auf diesem Feld ausbauen und bald als unsere „Fahrlehrer-Expertin“ fungieren kann :-). Den Sog, solche Anschlussprojekte nicht nur ausschließlich aus inhaltlichen Gründen, sondern AUCH deswegen zu akquirieren, dass man den wissenschaftlichen Nachwuchs weiter fördern kann, spüre ich seit einigen Jahren in hohem Maße. Während das einerseits durchaus motivierend sein kann und man dabei eben auch neue Dinge lernt, die dazu gehören, wenn man Führungsaufgaben in kleineren oder größeren Teams übernimmt, erhöht es andererseits zumindest langfristig die Gefahr sich zu verzetteln. Ganz schnell kann es dann zudem passieren, dass man – bildlich gesprochen – das „Gewicht“ des eigenen Outputs in den Vordergrund rückt – als könne man wissenschaftliche Erkenntnis tatsächlich abmessen wie Industrieprodukte.

Wo sind die kreativen Intellektuellen?

Seit einigen Tagen liegt die Veröffentlichung der Studie „Der Wandel des Hochschullehrerberufs im internationalen Vergleich” auf meinem Schreibtisch, die ich endlich gelesen habe. Mandy hat (hier) bereits ausführlicher einige – speziell für Fragen der Lehre interessante – Resultate zitiert (sie war schneller als ich ;-)), was ich von daher an der Stelle nicht zu wiederholen brauche. Seltsam ist, dass zwischen der Veröffentlichung und der Befragung selbst vier Jahre liegen. Ich vermute, dass sich in diesen vier Jahren wieder einiges verändert hat. In der Summe kommt die Studie beim Thema Lehre zu dem Schluss, dass deutsche Hochschullehrer im internationalen Vergleich verschiedene Defizite aufweisen und allem voran von den digitalen Medien zur Verbesserung der Lehre eher wenig wissen wollen – also: sehr wenig! Auch die Entwicklung von Lehrmaterialien scheint nur eine Minderheit der Lehrenden an deutschen Hochschulen zu interessieren. Innovationsfreude in Sachen Studiengangentwicklung – so die Interpretation der Autoren der Studie – sei wenig vorhanden. Außerdem ein Ergebnis: Allenfalls ein Drittel der Hochschullehrer sehen einen Einfluss von Lehrevaluationen auf ihre Lehre in dem Sinne, dass diese zu Verbesserungen führen. Okay – „nur“ ein Drittel, aber ich war fast überrascht, dass es immerhin ein Drittel ist: So wie viele Lehrevaluationen erfolgen – mit oft unpassenden standardisierten Items und in Form einer Zwangsmaßnahme – finde ich dieses Ergebnis fast schon positiv.

Überhaupt sollte man den Zusammenhang zwischen Lehrqualität und der Art der Evaluation genauer betrachten. Meiner Ansicht nach wirken sich Evaluationen, wenn sie als zentralistisches Kontrollinstrument verstanden und durchgeführt werden, eher kontraproduktiv auf die Lust der Lehrenden aus, „innovationsfreudiger“ zu werden – was ja die Studie als Mangel feststellt. In manchen Unis wähnt man sich schon im Besitz eines „Konzepts zur Lehrqualität“, wenn man sich für ein technisches Erhebungsinstrument entschieden hat. Auf den Trend, hier mehr mit Vorgaben statt mit Vertrauen auf die Expertise der Hochschullehrer zu arbeiten, weisen auch die Autoren der Studie hin, wenn sie auf folgende Veränderung der Rahmenbedingungen für Hochschullehrer aufmerksam machen: „Mehr Dispositionsspielräume für die einzelnen Hochschulen gegenüber staatlichen Vorgaben, mehr Evaluation, ein machtvolleres Hochschulmanagement, mehr Anreiz- und Sanktionsmechanismen, sowie stärkere Erwartungen, die Qualität, Relevanz und Effektivität der wissenschaftlichen Arbeit zu demonstrieren.“ Wer hier ein gewisses Unbehagen spürt, dem kann ich die Abschiedsvorlesung von Heiner Keupp aus dem Jahr 2008 (also einem Jahr nach der Befragung) empfehlen, der es gut versteht, dieses Unbehagen auf den Punkt zu bringen – allem voran mit dem Hinweis, dass die Universität als Teil eines „marktradikalen Gesellschäftsmodells“ immer mehr „die Figur des kreativen Intellektuellen“ ersetzt, „der seine gedankliche Unabhängigkeit gerade dadurch erweist, dass er nicht von fremdgesteuerten Geldströmen abhängig ist“ (Keupp, 2008, S. 8). Vielleicht hätte man in die Studie zum Hochschullehrerberuf auch eine Frage in diese Richtung einbauen können – nämlich, ob und inwieweit sich Hochschullehrer noch als unabhängig empfinden und an einem Ort wähnen, der „gesellschaftliche Verantwortung übernimmt“ und an dem „die wichtigsten Zukunftsthemen unserer globalen Welt“ (Keupp, 2008, S. 13 f.) öffentlich und kritisch diskutiert werden.

Auf die Füße getreten

76 Kommentare in zwei Tagen auf einen ZEIT-Artikel – das ist durchaus beachtlich. Geschafft hat das ein Beitrag über die Studie ZEITLast, deren Ergebnisse nun in einem Buch erscheinen (Rolf Schulmeister, Christiane Metzger (Hrsg.): Die Workload im Bachelor: Zeitbudget und Studierverhalten. Eine empirische Studie. Waxmann 2011). ZEITLast möchte Transparenz in den tatsächlichen Zeitaufwand Studierender bringen und den vielen Vermutungen vor allem zum Zeitstress der Studierenden in den neuen Studiengängen objektive Zahlen entgegenhalten. Anders als viele andere Studien schätzen die Studienteilnehmer/innen ihren Zeitaufwand hier nicht retrospektiv, sondern erfassen laufend, wofür sie wie viel Zeit aufwänden.

Der Beitrag ist – wie das journalistische Texte zu speziellen Themen oft sind – stellenweise etwas unglücklich formuliert, enthält auch Fehler (Rolf Schulmeister wird zum Informatiker gemacht) und ist durch die Art der Darstellung schon etwas darauf angelegt zu polarisieren. Der wohl intendierte Effekt wurde denn auch erreicht – teilweise zeugen die zahlreichen Kommentare von erzürnten Reaktionen. Es wäre sicher ganz interessant, die Beiträge inhaltsanalytisch auszuwerten: Manche rechnen da ihr eigenes Zeitkonto nach, viele verweisen auf die (in der Studie ebenfalls festgestellten) Unterschiede zwischen Disziplinen und Fächern, einige bemängeln die Studienmethode (über die der Beitrag allerdings gar nicht viel sagt), ein paar machen auf den Unterschied zwischen Zeiterleben und faktisch gebrauchter Zeit aufmerksam (ein Punkt, der auch aus meiner Sicht sehr interessant ist) und sehr viele fühlen sich offenbar persönlich angesprochen und in der Folge massiv auf die Füße getreten.

Unabhängig von diesem Beitrag im Speziellen frage ich mich bei Zeitungs- und Zeitschriftenartikeln über wissenschaftliche Ergebnisse oder Ereignisse (siehe auch die Plagiatsaffäre hier, hier und hier in diesem Blog) oft, ob die Relation zwischen dem damit erzielten Nutzen (breite Aufmerksamkeit für ein Thema) und dem potenziell angerichteten Schaden (verkürzte und/oder verfälschte – weil nicht richtig verstandene – Aussagen) noch ausreichend ausgewogen ist. Ich bin ja der Meinung, dass Wissenschaftler selbst mehr für die Verbreitung gesellschaftlich relevanter Erkenntnisse tun könnten und dies nicht nur den Journalisten überlassen sollten – digitale Medien haben dies immerhin sehr erleichtert. Allerdings – das liegt natürlich auf der Hand – erreicht man damit nach wie vor niemals eine solche Breite wie ein Beitrag etwa in Spiegel oder Zeit online. Aber drüber nachdenken könnte man ja mal.

Aus dem Lot geraten

Im Newsletter des Deutschen Hochschulverbands (auf der Webseite noch nicht online, aber bereits per Mail verschickt) und bei bildungsklick kann man es nachlesen – ein paar Verlautbarungen des Präsidenten des DHV, Professor Bernhard Kempen, anlässlich des 61. DHV-Tags in Potsdam. Z.B.: „Forschung an Deutschlands Universitäten ist ohne die Einwerbung von Drittmitteln und erfolgreich begutachteten Anträgen nahezu unmöglich geworden. Das Verhältnis von angemessener Grundausstattung, Programmförderung und thematisch freier Förderung ist auf Grund der chronischen Unterfinanzierung der Hochschulen aus dem Lot geraten“ – ja, allerdings nicht erst seit gestern, aber richtig ist, das man zumindest den Eindruck hat, es wird immer schlimmer. In der Pressemeldung heißt es weiter, Kempen weise darauf hin, dass die Handlungsfreiheit von Wissenschaftlern durch zunehmende Managementaufgaben und wachsende Weisungsabhängigkeit von Dekan, Rektor oder Präsident eingeschränkt und Forschung immer mehr durch Förderprogramme gesteuert werde – auch das ist ein Prozess, der schon seit langem begonnen hat, und der als Belohnungssystem für Anpassung fungiert. Allerdings haben sich viele Wissenschaftler natürlich auch aktiv daran beteiligt, denn auf diese Weise ist es einigen ausgesprochen gut gelungen, den Mainstream nach eigenen Vorstellungen zu gestalten. So etwas fällt ja nicht vom Himmel. Die Folgen werden jetzt eben besonders drastisch sichtbar. Wortlaut Kempen: „Unkonventionelles Denken, das innovative Wege eröffnet, wird strukturell benachteiligt.“ und: „Erfolg in der Wissenschaft bemisst sich nicht mehr allein am Erkenntnisgewinn, sondern an Zielvereinbarungen mit quantitativen Parametern wie Drittmitteln und Publikationsleistungen.“ Nun, das ist jetzt auch keine neue Erkenntnis. Gerade gestern habe ich ein Gutachten für die Zwischenevaluation im Rahmen einer Juniorprofessur geschrieben und dabei genau festgelegte Kriterien für die Bewertung der Forschungsleistungen vorgelegt bekommen – das ist schon lange Realität und man kann nur versuchen, diese Kriterien, wenn man denn begutachtet, zumindest da auszuhebeln, wo sie einem begründet nicht einleuchten! Und bei jeder Berufung wird darum geschachert, wie viel man an Drittmitteln einwerben MUSS, um das schlechte Grundgehalt ein wenig aufzuwerten; man darf da gar nicht so viel darüber nachdenken, denn das hat alles mit Wissenschaft nichts mehr zu tun – schon lange nicht mehr! Kempens Schlussfolgerung: „“Wissenschaft wird zum Betrieb, und der Betrieb bedroht die wissenschaftliche Freiheit“. Sein Lösungsvorschlag: „Die Einzelförderung für Wissenschaftler muss ausgebaut werden. Hervorragende Wissenschaftler müssen ausreichend Mittel erhalten, um Forschungen ohne inhaltliche Vorgaben vorantreiben zu können“. Und wer bestimmt wie, wer „hervorragend“ ist? Das soll eine Lösung sein? Wie wäre es mit einer prinzipiell besseren Ausstattung und ideellen Aufwertung von Wissenschaft und Bildung, mit einem Umdenken in unserer Gesellschaft in die Richtung, dass es noch mehr Verpflichtungen als ein schnelles und kontinuierliches Wirtschaftswachstum gibt?