Verbesserungen in der Lehre: An Forderungen und Empfehlungen mangelt es nicht

Kürzlich hat der Wissenschaftsrat wieder mal ein „Konzept zur systematischen Verbesserung der Hochschullehre“ vorgelegt (online abrufbar hier), das zum einen eine Art Bestandsaufnahme (auch mit einigen Zahlen etwa zur nach wie vor sehr schlechten Betreuungsrelation an Hochschulen – vor allem in unseren Fächern ) beinhaltet und zum anderen mit Empfehlungen aufwartet. Mit an oberster Stelle der Ratschläge steht die „qualitätsorientierte Finanzierung“ und das ist richtig so, denn: Wenn es an Professoren/innen mangelt, dann kann man da halt irgendwann nicht mehr durch zusätzliches Engagement und auch nicht mit Mitarbeiter/innen, die aus Studienbeiträgen finanziert werden, kompensieren. Ich fürchte nur, das wird eine nett gemeinte Empfehlung bleiben …

Auch die Forderung nach einer Neuberechnung des Lehraufwandes ist nachvollziehbar und überfällig – ich jedenfalls ärgere mich schon seit langem über die anachronistische Berechnung des Lehrdeputats mit Semesterwochenstunden (die von der Logik her zu ECTS und „Workload“ der Studierenden nicht zusammenpassen). Skeptisch bin ich beim Punkt „Leistungstransparenz und Qualitätsbewertung“:Hier empfiehlt der Wissenschaftsrat eine „umfassende Praxis der Rechenschaftslegung und der Transparenz“. Hört sich gut an, kann aber leider dazu führen, dass wir noch mehr Zeitressourcen in die Administration investieren, dass der bürokratische Aufwand noch größer wird, als er aktuell ohnehin schon ist. An der Stelle kann man sich mal die Ergebnisse einer Umfrage des Deutschen Hochschulverbands anschauen (online hier), aus der ersichtlich wird, dass ohnehin bereits zu viel Zeit für (oft unnötige) Bürokratie drauf geht. Meine eigene Erfahrung jedenfalls geht eindeutig in diese Richtung! Immerhin heißt es aber auch anderer Stelle, dass Lehrende von weiteren und zu viel administrativen Aufgaben zu befreien sind – ja schön wäre es! Aus meiner Sicht mangelt es hier nach wie vor an wirklich beherzten Investitionen in digitale Technologien etwa zur Leistungspunkteerfassung und anderen Verwaltungsfunktionen, die wirklich etwas taugen und eine angemessen Anwenderfreundlichkeit aufweisen. Dass wir davon nicht nur in Augsburg meilenweit entfernt sind, weiß jeder, der sich mit Angehörigen verschiedener Hochschulen über dieses Thema unterhält. Hier sollten den vielen Worten wirklich mal Taten folgen.

Außer Frage steht, dass es ein gemeinsames Ziel sein muss, die Lehr- und Studienbedingungen zu verbessern, und positiv ist in dem Papier des Wissenschaftsrats, dass man darin eine systemische Aufgabe sieht. Erfreulich ist schließlich, dass immerhin zweimal ein Ausbau und entsprechende Investitionen in E-Learning bzw. Blended Learning angeraten werden, ohne (und das ist wichtig) dies ausschließlich mit dem Argument der Einsparung irgendwelcher Mittel und Personen, sondern mit Qualitätszielen zu verbinden.

Nachtrag: Sandra weist bei ihrem Kommentar zu den Empfehlungen (hier) auf ein paar interessante weiterführende Links hin.

Einmal online und kein Peer-Review mehr?

Eigentlich versuche ich meine Mitarbeiter/innen ja immer mal, Arbeitsberichte zu veröffentlichen, um in kürzeren Zyklen und mit großer Aktualität interessante Gedanken und Ergebnisse bekannt und zugänglich zu machen. Früher, als ich noch bei Heinz Mandl an der LMU München gearbeitet habe, war es an sich gängige Praxis, Forschungsberichte auch dann zu verfassen, wenn geplant war, diese irgendwo als Zeitschriften- oder Buchbeiträge einzureichen. Das waren dann quasi Preprints und Vorversionen, denn z.B. bei Einreichungen mit Peer-Review kommt es ja – sinnvollerweise – oft genug noch zu Änderungen, im besten Fall Verbesserungen der Texte. Bei den meisten Zeitschriften geht nun genau das seit längerem schon nicht mehr. Gerne hätte ich z.B. meinen Beicht zum Thema Selbstorganisation in ein Review-Verfahren gegeben – geht nicht (mehr). Ist es dann noch schlau, Nachwuchswissenschaftlern zu Online-Publikationen zu raten, die zur sog. „grauen Literatur“ gehören? Komischerweise sind genau das die Texte, die sich am weitesten verbreiten – die aber keinerlei Wert etwa bei Bewerbungen um akademische Stellen haben.

Angesichts der aktuellen Diskussionen um Open Content ist das schon eine irgendwie anachronistische Angelegenheit, für die man eine vernünftige Lösung finden müsste. Nun bin ich ja auch an einer Zeitschrift beteiligt (Zeitschrift für E-Learning) und wir setzen uns seit längerem immer wieder mit der Frage auseinander, wie wir für uns die „Open Content“-Frage lösen (ich verspreche es: Wir lösen es auch irgendwann) . Mir ist also das Problem nicht nur seitens der Autorenrolle, sondern auch seitens der Herausgeberrolle bewusst – und auch die Sicht der Verlage ist mir da durchaus bekannt (wobei in unseren Fächern Privatpersonen sehr selten ein Abo haben; meist sind das Bibliotheken).

Die Sache mit der online publizierten „Grauen Literatur“ allerdings ist ja nochmal eine etwas andere Angelegenheit: Da geht es dann um die Frage, ob der Beitrag für eine Zeitschrift wirklich Neuheitswert hat. Natürlich ist der im Falle einer Online-Vorabversion in gewisser Weise eingeschränkt. Da eine Online-Vorabversion allerdings sehr schnell möglich ist, ist damit über den Aktualitätsgrad ja noch gar nichts gesagt: Umgekehrt ist es immer wieder frustrierend, wenn Beiträge in Zeitschriften erst nach einem Jahr oder länger endlich publiziert sind (wo ist da eigentlich der Neuheitswert, mal zeitlich verstanden?) Wie auch immer: In der Folge ist es einfach sehr schade, dass solche Beiträge systematisch aus dem Peer Review ausgeschieden werden. Ach, das wäre ein wichtiges Thema für die diesjährige GMW gewesen – na ja, vielleicht ergeben sich in den pausen entsprechende Gespräche oder es findet sich ein spontaner Ad hoc-Workshop mit Ideengenerierung am Rande zusammen.

Kinderuni-Podcast: Folge 7 von Suni und Partner

Es hat diesmal lange gedauert (und es gibt Gründe dafür): Aber jetzt ist sie da, die neue Folge von „Suni & Partner“ – dem Kinderuni-Podcast der Uni Augsburg, den studentische Mitarbeiter bei uns vor einiger Zeit auf die Beine gestellt haben. Die neue und inzwischen 7. Folge heißt “ Die Stimmen des Phantoms“ und kann wie immer kostenlos hier heruntergeladen werden. Es gab Änderungen in der Besetzung und der Anspruch des Teams steigt … hoffentlich nicht ins Unermesslich 😉

Trends beschreiben oder setzen?

Das Institut für Medien- und Kompetenzforschung (ein privates Forschungsinstitut; das ist aus meiner Sicht schon wichtig zu wissen, da der Begriff „Institut“ eine Verbindung zu Hochschule nahelegt) hat einen neuen Trendmonitor zum E-Learning in Unternehmen (online hier abzurufen) vorgelegt (siehe auch den Blogbeitrag dazu von Jochen Robes). Zugrunde liegt eine Befragung von 53 Experten aus der „Bildungswirtschaft“, die auf der CeBIT befragt wurden (das Vorgehen wird kurz auf Seite 9 dargestellt). Nicht ganz klar ist mir, inwiefern es sich dabei wirklich um eine Delphi-Befragung (hier findet man eine gute Darstellung der Delphi-Methode von der Uni Leipzig) handelt, der mindestens zwei Befragungszyklen zugrundeliegen müssen (diese sind mit dem Hinweis auf Interview und Online-Fragebogen zu erahnen, aber leider nicht genau zu erkennen). Soweit zum Methodischen.

Was die Ergebnisse angeht, so zeigt sich u.a., dass Learning Management Systeme kaum mehr eine Rolle spielen, wobei zu vermuten ist, dass diese zur Selbstverständlichkeit geworden sind (was man z.B. an Hochschulen oder gar Schulen leider immer noch nicht in dieser Form behaupten kann). Online-Communities und Wikis wird eine hohe Zuwachsrate prognostiziert. E-Leraning und Wissensmanagement werden – so heißt es – „einander näher kommen“ (siehe hierzu auch das Themenheft der Zeitschrift für E-Learning aus dem letzten Jahr, wo wir ja offenbar einen Trend vorweggenommen haben ;-)). Interessant fand ich schließlich folgenden Satz: „Dass Hochschulen für die Weiterbildung in Unternehmen künftige eine „wichtige Rolle“ spielen werden, erwartet etwa jeder zweite Experte (48%), und 41 Prozent rechnen damit, dass Open Content sich stärker durchsetzt und „jeder Lerncontent verändern und weiter vertreiben“ kann.“ Mich würde interessieren, wie diese Rolle aussehen könnte – hoffentlich nicht nur so, dass man von den Hochschulen die Bereitstellung von Open Content erwartet – das wäre ein bisschen mager und vor allem sehr einseitig.

Ich finde solche „Trendmonitore“ sehr interessant – nicht nur im Hinblick auf ihre Ergebnisse. Interessant ist nämlich auch die Frage, welche Funktionen sie erfüllen: Wird ein Trend aufgezeigt (dann wäre man ausschließlich beschreibend tätig)? Oder wird er eher gemacht (indem Entwicklungen quasi herbeigeredet oder auch mitgestaltet werden)? Wahrscheinlich ist es beides! Wer auch immer jeweils „die“ Experten sind: Sie geben natürlich ihre Beobachtungen wieder, aber sie äußern selbstverständlich auch ihre persönlichen Präferenzen und Erwartungen. Damit möchte ich Prognosen dieser Art nicht abwerten: Ich denke nur, dass man sich als Beteiligter wie auch als Rezipient dieser Doppelfunktion bewusst sein sollte.

(N)ONLINER Atlas 2008

Über 50.000 Telefon-Interviews (wie schon im Jahr zuvor) mit zufällig ausgewählten Personen ab 14 Jahren liegen den Daten des (N)Online Atlas zugrunde. Ziel ist eine umfassende Erhebung der Internetnutzung in Deutschland, wobei vor allem Geschlechterunterschiede, Altersunterschiede und Unterschiede in den Bundesländern, aber auch Einflüsse von Bildung und Einkommen interessieren. Die Studie kann online (hier) abgerufen werden. Auf der dazugehörigen D21-Seite finden sich auch eine ganze Reihe von Presseberichten für die eiligen Leser – aber Achtung: Da werden dann natürlich nur einzelne Ergebnisse herausgegriffen. Interessant fand ich u.a. die Tatsache, dass bei der jungen Generation die Mädchen keineswegs mehr im Hintertreffen sind – im Gegenteil: Seit 2007 gibt es bei den 14- bis 19-Jährigen nicht nur eine fast flächendeckende Internet-Nutzung von fast 95 Prozent, sondern die Mädchen liegen dabei sogar ein wenig vorne. Das ist wichtig, auch wenn es letztlich natürlich noch wenig aussagekräftig ist, denn was genau mit dem Netz gemacht wird, bleibt bei solchen Studien ja eher außen vor.

Als Ergänzung sind daher Studien interessant, die auch den Funktionen nachgehen, die Medien für Jugendliche erfüllen. Dazu kann man z.B. die JIM-Studie von 2007 (hier) heranziehen, die ebenfalls mit repräsentativen Stichproben arbeitet, oder das aktuelle Medienkonvergenz Monitoring 2008, das mit wesentlich kleineren Stichproben arbeiten kann, weil die Fragen hier spezifischer sind. Beide Studien belegen, dass es zwischen Mädchen und Jungen in der Nutzungsform und in den Nutzungsmotiven deutliche Unterschiede gibt. Ich denke, hier muss man auch ansetzen, wenn man mehr Mädchen für Technik- und Informatik-Tätigkeiten, -Studiengänge und -berufe motivieren will. Statt immer nur nach den „Defiziten“ bei den Mädchen (mit den Jungen als Maßstab) zu suchen, sollte man mal genauer hinschauen, welche Potenziale in den bestehenden Arten und Gründen für die Nutzung des Internets bei den Mädchen vorhanden sind. Interessante Dinge laufen diesbezüglich z.B. an der Universität Bremen (in der Arbeitsgruppe für digitale Medien (dimeb) unter Leitung von Prof. Dr. Heidi Schelhowe.

Medidaprix 2008: Beiratssitzung

Am Donnerstag Abend (26.06.08) bis Freitag Spätnachmittag (27.06.2008) ist der neue Beirat des Medidaprix 2008 an der Donau-Universität Krems unter Leitung von Peter Baumgartner zusammengetreten. Leider waren nicht alle Beiratsmitglieder (hier der Überblick) da, aber immerhin die Mehrheit ;-). Der Medidaprix hat 2008 eine Neuausrichtung erfahren. Ich zitiere aus der Web-Seite: „In der neuen Ausschreibungsrunde sollen nun auch verstärkt Initiativen zur Entwicklung frei zugänglicher Bildungsressourcen und alles was für deren breite Nutzung notwendig ist (z.B. Austauschmodell, Qualitätssicherung, Metadaten, geeignete Lizenzierung etc.) in den Blickpunkt kommen. Damit will der MEDIDA-PRIX einen weiteren Schritt zur Verstetigung und Nachhaltigkeit digitaler Medien erreichen und andererseits sich auch als Teil des internationalen Trends zu Open Educational Resources begreifen.“

Ich meine, das ist eine sinnvolle Neuausrichtung, auch wenn die nicht bedeutet, dass ausschließlich explizite OER-Projekte eine Chance hatten weiterzukommen. Auf jeden fall hat diese Neuausrichtung meine Unterstützung; sollten doch zumindest die staatlichen Hochschulen von Neuerungen langfristig profitieren können, die sie durch eigene finanzielle und personelle Ressourcen geschaffen haben. Über die „Koexistenz“ offener und kommerzieller Angebote, Werkzeige und Strategien gab es interessante Diskussionen, denn es ist ja jetzt keineswegs so, dass man wirtschaftliche Initiativen quasi an den Pranger stellt oder gar anti-ökonomische Fronten aufbaut. Vielmehr geht es um die Frage, zu welchem Zweck unter welchen Bedingungen in welchen Kontexten welchen Strategien der Vorzug zu geben ist. Aber das nur am Rande.

Geändert wurde 2008 auch das Evaluationsverfahren. Vor zwei Jahren war ich auf dem Gutachterworkshop nach dem „alten Verfahren“ in Tübingen (ich habe hier davon berichtet). Ich hatte damals das Gefühl (und habe es immer noch), dass man infolge der intensiven Diskussionen den Mühen der Einreicher durchaus gerecht geworden ist. Trotzdem finde ich die jetzt vorgenommenen Änderungen positiv – sowohl inhaltlich als auch in Bezug auf die Effizienz des Verfahrens: Als Hintergrundtext wird auf der Web-Seite des Medidaprix auf einen einschlägigen Artikel verwiesen (hier). Ziel ist es, statt einer quantitativen Aufsummierung verschiedener Bewertungen eine qualitative Gewichtung zu erreichen. Ich kann an der Stelle nicht auf die vergleichsweise komplexen Einzelheiten eingehen, aber ich kann auf jeden Fall sagen: Auch in diesem Verfahren geht man sorgsam mit Einreichern und Gutachtern um, es wird diskutiert und abgewogen und man muss keine Angst haben, dass der Preis nach einem intransparenten Prozedere vergeben wird, wie das im Kontext anderer Preise, die teilweise kommerziellen Hintergrund haben, leider allzu oft der Fall ist.

Ich hoffe, dass die Neuausrichtung in den verschiedenen Aspekten gelingt und uns der Medidaprix noch lange erhalten bleibt: Digitale Medien zur Verbesserung der Hochschullehre einzusetzen, ist ja schließlich kein Thema, das sich bereits erledigt hätte – im Gegenteil!

Intel® Lehren-Symposium

Das inzwischen 9. Intel® Lehren-Symposium fand am 20. und 21. Juni 2008 in Dillingen (die Akademie ist gleichzeitig Kooperationspartner) statt. Wir sind bereits zum vierten Mal dabei, wenn auch mit wechselnder Besetzung: Alex hat seine Arbeit am Intel® Aufbaukurs ja inzwischen beendet und Eva hat diese erfolgreich fortgesetzt. Aktuell ist nun auch Jojo beteiligt, der ein Reporting-System für die Plattform entwickelt. Eva und Jojo haben denn auch am Samstag einen Überblick über unsere aktuelle Phase der wissenschaftlichen Begleitung gegeben (Folien), welchen ich mit einem kurzen Statement (hier) nur eingeleitet habe. Im Anschluss an die Kurzpräsentation der Workshop-Ergebnisse vom Samstag-Vormittag durfte ich diese dann noch kurz kommentieren. Das kann ich aber leider nicht verfügbar machen, weil es ad hoc entstanden ist. Die gesamte Veranstaltung ist hier mit Programmübersicht und Vortragsfolien online dokumentiert. Gut gefallen hat mir der Vortrag von Klaus Himpsl, der – wie ich finde – gerade für die Zielgruppe Lehrer/innen einen motivierenden und gut verständlichen Einblick in die Möglichkeiten des Web 2.0 an der Schule gegeben hat.

Alles in allem kann man auch dieses Jahr wieder festhalten, dass es natürlich eine beachtliche Gruppe von Lehrkräften gibt, die in hohem Maße bemüht sind, die Entwicklung der digitalen Technologien aufzugreifen und sowohl in didaktischer wie auch erzieherischer Intention in ihrem Unterricht aufgreifen, ja sich verpflichtet fühlen, diese Entwicklungen mit in die Schule hineinzunehmen, um junge Menschen darauf auch vorbereiten können. Doch letztlich ist diese Gruppe nach wie vor klein und in Gesprächen und Wortmeldungen wird immer wieder deutlich, dass sich diese wenig unterstützt fühlen und mit etlichen alttäglichen Widrigkeiten zu kämpfen haben. Ich denke, oft muss man sich als „Medienvertreter“ auch rechtfertigen, warum man die digitale Technologien als Anker für besseren Unterricht heranzieht – denn es ist ja eben ein „Anker“ und kein Allheilmittel, und jeder der es mit Lehre und Unterricht ernst meint und mit der modernen Technik experimentiert, weiß das auch. Das Problem aber ist, dass man infolge des Medienbezugs mit seinen Bemühungen genau darauf – auf die Technik – gerne reduziert wird. Ist ja auch praktisch, weil man dann als Kritiker die „wichtigeren und eigentlichen Ziele“ für Bildung und Unterricht hochhalten kann. Ein Scheinargument, aber eben auch ein leider immer wieder wirksames Killerargument. Vielleicht sollten wir die Taktik ändern, das Wort Medien aus unserem Wortschatz verbannen und komplett neue Argumentationsmuster entwickeln, um verständlich zu machen, worum es geht: nämlich darum, gesellschaftliche und damit auch technische Entwicklungen ernst nehmen, sie zum Mittel und Gegenstand der Bildung machen, aktiv an der Gestaltung unserer Medienwelt partizipieren und Kinder und Jugendliche in der Auseinandersetzung mit dieser begleiten – statt zuschauen, ablehnen oder verbieten.

Schulmeister bloggt … ein bisschen

„Schulmeister bloggt“ …. ganz so kann man es noch nicht sagen, aber fast: Die Mitarbeiter im Team um Rolf Schulmeister betreiben seit April 2008 das ZHW-WebLog (ZHW steht für Zentrum für Hochschul- und Weiterbildung) und Rolfs erster Blog-Eintrag findet sich hier:

In diesem erfahren wir, wie altmodisch Blogs an sich sind, kann man deren Geburtsstunde doch bis ins Jahr 1795 zurückverfolgen, als Adolph Freiherr Knigge das Konzept des Korrespondenzvereins vorlegte, das dem Bloggen sogar überlegen sei: Allein mit einfachen Briefbögen und dem bestehenden Postsystem gelang es, ein Netzwerk aufzubauen, in welchem regelmäßig aufgezeichnete Gedanken, Meinungen und Vorschläge verbreitet und kommentiert wurden (für Details bitte im zitierten Blogbeitrag nachlesen). Die Überlegenheit gelte allem voran für das aufklärerische Ziel des Vereins, das man der Blogosphäre in der Tat nicht generell zuschreiben kann. Vielmehr haben wir die Akzeptanz und das Verfolgen eines solchen Ziels inzwischen individualisiert – jeder muss selbst entscheiden, ob er/sie sein/ihr Blog dazu nutzt, einen kleinen Beitrag für mehr Vernunft auf unserer Welt zu leisten.

Deutsche Universitäten, von Harvard aus betrachtet

Der Kunsthistoriker Jeffrey Hamburger ist Professor für Deutsche Kunst und Kultur an der Harvard Universität. In der letzten Ausgabe von Forschung und Lehre hat er einen Beitrag zur aktuellen Hochschulentwicklung in Deutschland verfasst, den ich sher gut fand und den die Redaktion von Forschung und Lehre freundlicherweise auf Nachfragen jetzt sogar online gestellt hat (hier): Danke! 🙂

„Die deutschen Universitäten sind bestenfalls an der Oberfläche amerikanisiert“, meint Hamburger. Und das liege nicht nur an den viel geringeren finanziellen Ressourcen, mit denen deutsche Universitäten haushalten müssen (das zeigt übrigens auch der aktuellen Bildungsbericht 2008, der seit wenigen Tagen hier online ist), sondern auch daran, dass selbst die öffentlichen Universitäten in den USA von einer „Kultur der Philanthropie“ (also Menschenfreundlichkeit) profitieren, die in dieser Form in Deutschland nicht existiere. Neben Geld und „Menschenfreundlichkeit“ komme noch ein weiterer Unterschied hinzu, den ich besonders wichtig finde: „Was in den USA eine Eliteuniversität elitär macht, ist nicht ihre finanzielle Stellung oder das Forschungsprofil ihrer Mitglieder, sondern ganz einfach die Qualität ihrer Studierenden.“ Als zusätzliches, drittes, Standbein, ist das aus meiner Sicht wirklich essenziell! Kritisiert wird schließlich auch die Geschwindigkeit von Reformen, die einen Kahlschlag mit beschönigenden Vokabeln belegen, sowie die unsägliche Jagd nach Drittmitteln, die viel Energie bindet. Einen Abschnitt aber sollte man wirklich zweimal lesen und an die Wissenschaftsministerien unserer Länder senden:

„Welch eine Ironie, wenn Deutschland im Drang nach Amerikanisierung seines Hochschulwesens genau die Charakteristika seines Systems aufgäbe, die die amerikanischen Universitäten im 19. Jahrhundert nachzueifern suchten. Die deutschen Universitäten führen neue Bachelor- und Masterprogramme ein, doch diese haben kaum eine Ähnlichkeit mit ihren sogenannten Namensvettern in den USA. Es fehlt die Freiheit, die es den Studenten gestattet, den eigenen Studienverlauf selbst zu bestimmen.“

Noch kämpfen wir in unserem BA-/MA-Studiengang um diese Freiheit.

Wie man die Qualität von Forschung erfasst (und wie nicht)

„This is a report about the use and misuse of citation data in the asssessment of scientific research“. So beginnt ein online (hier) zugänglicher Artikel der International Mathematical Union (IMU) in Kooperation mit dem International Council of Industrial and Applied Mathematics (ICIAM) und dem Institute of Mathematical Statistics (IMS) – Herausgeber also, denen wir aus den Sozial- und Bildungswissenschaften gemeinhin den Status der Objektivität schlechthin zugestehen und von denen wir sicher sein dürfen, dass sie Fragen zu statistischen Konzepten perfekt bearbeiten können. Zu den „citation data“ gehören u.a. der bekannte Zitationsindex – also die Frage, wie oft wird jemand wo zitiert, wobei das Wo eine wichtige Rolle spielt – und auch der sog. Impact Factor (einen guten Überblick gibt hierzu z.B. Peter Baumgartner hier), der zeigen soll, wie wichtig und angesehen z.B. einer Zeitschrift ist, in der es sich für einen Forscher folglich zu publizieren lohnt. Dass nun diese quantitativen Maße keineswegs, wie erhofft, objektiver sein müssen als Gutachten und andere qualitative Bewertungen (wie z.B. Peer Reviews, die aber im Übrigen bei einer Zeitschrift mit Impact Factor im Prozess auch eine zentrale Rolle spielen) ist Gegenstand des Beitrags mit dem Titel „Citation statistics“.

Die Autoren beklagen, dass Zitationsdaten viel zu wenig erforscht sind, dass es einen naiven Glauben an Zahlen (und deren unanfechtbare Objektivität) gibt und dass Missbrauch mit diesen Zahlen stattfindet: Das gelte für die Beurteilung von Zeitschriften ebenso wie die von Artikeln oder einzelnen Forschern. Vor allem dreht man sich mitunter im Kreis, wenn man die Güte einer Zeitschrift daran festmacht, wie „berühmt“ (quantitativ betrachtet natürlich) deren Autoren sind und deren Forscherqualitäten wiederum daran gemessen werden, wie angesehen die Zeitschriften sind, in denen sie publizieren. Dabei geht es den Autoren nicht darum, statistische Konzepte aus dem Assessment von Forschung und Forschern zu verbannen. Zurecht aber stellen sie fest, dass z.B. das alleinige Vertrauen auf den Impact Factor zur Beurteilung einer Fachzeitschrift dem Versuch gleichkommt, die Gesundheit einer Person nur am Körpergewicht festzumachen.

Danke an Joachim Kahlert, der mich auf diesen Artikel hingewiesen hat. Er ist ein wichtiger Beitrag für mehr Ausgewogenheit und Besonnenheit sowie gegen die Verabsolutierung effizient handhabbarer Instrumente im Zeitalter von Evaluationen und Rankings, welche die Komplexität der (Forscher-)Welt so schön reduzieren können.