Gabi Reinmann

Hochschuldidaktik

Man liest sogar

| 3 Kommentare

In Kürze wird der Wissenschaftsrat auf einer Veranstaltung (hier das Programm) über die Ergebnisse einer Initiative berichten, die bereits 2004 beschlossen wurde. Im Hochschulmagazin duz kann man hier nachlesen, dass es dabei um ein neues Forschungsrating geht – entstanden aus der Unzufriedenheit mit bekannten nationalen und internationalen Verfahren. Diese dienen dazu, Ranglisten zu erstellen, an denen Wissenschaftler wie auch Studierende (und Förderinstitutionen) ablesen können sollen, wie gut eine Universität ist.

Das neue Verfahren des Wissenschaftsrats arbeitet vor allem mit Peer Reviews und kombiniert quantitative mit qualitativen Daten. „Statt nur die Zahl von veröffentlichten Aufsätzen in Fachzeitschriften zu zählen, werden ausgewählte Publikationen von den Gutachtern auch gelesen und bewertet“, so heißt es im besagten duz-Artikel.

Im Pilotverfahren wurden vier Fächer untersucht. Ziel war es unter anderem, die Spezifika der Fächer für ein Rating besser herauszuarbeiten. Der Ranking-Kritiker Richard Münch (Uni Bamberg) war einer der Gutachter in der Pilotstudie, und beschreibt im Artikel den Aufwand als sehr hoch: „Jedes einzelne der 16 Mitglieder der Gutachtergruppe hat im Zeitraum von zwei Jahren etwa drei Monate seiner Arbeitszeit in das Begutachtungsverfahren gesteckt“, so wird er zitiert.

16 mal drei Monaten innerhalb von zwei Jahren für einen Pilotbetrieb mit vier Fächern, das macht zusammen genau vier Jahre Arbeitszeit eines Wissenschaftlers oder eben ein Jahr Arbeitszeit von vier Wissenschaftlern für einen Bruchteil dessen, was an sich Gegenstand eines solchen Ratings wäre. Immerhin kommen dann die so beschäftigten Wissenschaftler nicht zum Forschen, sodass vielleicht der Evaluationsgegenstand ein bisschen kleiner wird. Wenn es das ist, was angestrebt wird (nämlich weniger Forschungsoutput, weil dieser vielleicht eh zu redundant, zu wenig neu o. ä. ist), dann hätte ich da noch ein paar andere Ideen, wie man das erreichen kann: z.B. mehr Zeitinvestition in die Lehre, mehr Personal für Betreuungsleistungen etc.

Um nicht falsch verstanden zu werden: Ich finde es gut, dass man die bisherigen Ranking-Verfahren kritisch hinterfragt. Es ist auch völlig legitim, nach Alternativen zu suchen. Positiv ist, dass man erkannt hat, wie wichtig die Beachtung verschiedener Fächerkulturen ist. Und ich schließe mich auch gerne der Ansicht an, dass die Fachöffentlichkeit und alle interessierten Bürger ein Recht darauf haben, zu erfahren, was an Hochschulen so passiert – also auch in der Forschung. Aber ginge das nicht auch anders? Mit mehr Transparenz, die jeder Wissenschaftler und jede Universität jenseits der bloßen Marketing-Maßnahmen herstellt? Mit mehr echter gegenseitiger und vor allem kooperativ (versus auf Selektion) angelegter Kritik, die der Sache dient?

Außerdem: Glaubt denn jemand ernsthaft, dass Peer Review-Verfahren weniger anfällig für Fehleinschätzungen sind als manipulierbare Zählmethoden? Und was ist mit dem Aufwand? Wie lässt sich das rechtfertigen? Werden, wie der Artikel in der duz an einer Stelle suggeriert, tatsächlich Bund oder Länder die Ergebnisse heranziehen, um schwächeren Hochschulen unter die Arme zu greifen? Kann ich mir nicht vorstellen!

Übrigens: In einem Workshop der GMW 2012 zum Thema E-Science (Programm) habe ich mit Thomas Köhler und Klaus Wannemacher kurz diskutiert, welche Vorteile es hätte, wenn sich Wissenschaftler zu einer Publikationsbegrenzung verpflichten würden – also z.B. nur zwei Artikel im Jahre zu schreiben. Wir sind unter anderem zu dem Schluss gekommen, dass das eine Maßnahme zur Qualitätssteigerung sein und insbesondere den Diskurs über Publikationsinhalte erhöhen könnte. Und genau diesen Diskurs könnte man sicher mindestens parallel zu Reviews mit Selektionscharakter nutzen, um sich Einsicht in die Qualität von Forschung zu verschaffen.

3 Kommentare

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.