Gefesselte Forschung

Anlässlich einer Biografie von Steve Jobs macht sich Joachim Wedekind in seinem Blog (hier) Gedanken zu der Frage, wie man es hinbekommt, dass Teams intrinsisch motiviert arbeiten. Er kommt zu dem Schluss, dass sich aus bestehenden Beispielen (etwa bei Apple und anderswo) keine Richtlinien ableiten lassen und dass man mitunter einfach auch Glück haben müsse. Dieses „Glück“, intrinsisch motivierte Teams bilden zu können, – und jetzt komme ich zu der Passage, die mich besonders aufhorchen ließ – hat Joachim selbst bisher vor allem in praxisorientierten Projekten und weniger in Forschungsprojekten gehabt. Er stellt in diesem Zusammenhang allerdings sogleich in Frage, ob das wohl ein Zufall oder eben keiner ist. Ich denke, es ist kein Zufall und das dürfte mit der Art von Forschung zu tun haben, die wir heute hoch halten: eine stark formalisierte Forschung, die mit „hohen Qualitätsstandards“ gerechtfertigt und entsprechend eingefordert wird. Kritisches Hinterfragen von Standards (und damit Konventionen), die aus Forschungsprojekten mitunter bloße Verwaltungsakte machen, ist nicht erwünscht, sondern mit dem Generalverdacht belegt, dass man diese nicht beherrscht, wenn man an ihnen zweifelt. Eine Forschung, die sich nur mehr in engen Grenzen bewegen und den eingeschlagenen Pfad nicht (mehr) verlassen darf, ist eine gefesselte Forschung. Aber vielleicht war und ist das eine notwendige Folge der seit der Jahrtausendwende „entfesselten Hochschule“, die man auf anderem Wege wieder einfangen musste. Für die Sache – so meine Meinung – ist das fatal: Was ist das für eine Forschung, bei der Forscher nur mehr nach externen Anreizen (Drittmittel, Rankings, Rufe) schielen? Warum sollten aus der Forschung keine Anwendungen (Produkte) entstehen, an denen man seine Freude hat? Wo, wenn nicht in der Forschung, sollte man Grenzen überschreiten und dazu auch motiviert sein und werden?

Keinen interessiert es

Die Kriterien und Vorgehensweisen beim Peer Review zur Einreichung von Beiträgen zur Jahrestagung der Gesellschaft für Medien in der Wissenschaft (GMW) werden geändert und keinen interessiert es. Wie kommt das? Ca. 100 Einreichungen gibt es jährlich bei der GMW. Da davon auszugehen ist, dass sicher nicht jeder jedes Jahr etwas einreicht, schätze ich den Kreis der potenziellen Einreicher pro Jahr mal auf ca. 300. Ungefähr 300 Personen müssten also an sich ein Interesse an den Kriterien und Vorgehensweisen haben, mit denen ihre Arbeiten beurteilt und ausgewählt werden. Sollte man meinen; ist aber nicht so. Denn obschon – was ich sehr gut finde – die GMW öffentlich aufruft, sich an dem Thema zu beteiligen (siehe hier) und dann ihre neuen Überlegungen erneut öffentlich macht (hier), äußert sich dazu niemand. Mein Kommentar blieb da alleine stehen. Warum? Weil man einfach mal überall einreicht und dann halt schaut, was passiert? Nach dem Motto „Irgendwas wird irgendwo schon gehen, wenn nicht da, dann woanders?“. Kann es einem wirklich egal sein, wie und woran man bzw. die eigenen wissenschaftlichen Arbeiten gemessen werden? Da jammern wir in der (Bildungs-)Wissenschaft immer alle, wie wenig junge Menschen die Potenziale des Web 2.0 nutzen und neue Web-Technologien doch wieder nur zur Unterhaltung und zum Konsum heranziehen, nicht aber für die eigene Artikulation und Partizipation an Dingen, die über die eigene Freizeit hinaus relevant sind. Und was macht man im akademischen Umfeld? Dasselbe? Nur aus anderen Gründen? Hat jemand Antworten?

Wie eine Schulstunde – ohne Frühstück

Unter dem Titel „Eine ganz normale Seminarsitzung“ findet sich in der aktuellen Ausgabe der Zeitschrift „Forschung und Lehre“ der Bericht eines Geschichtsprofessors, der manchem Leser etwas zynisch, anderen Lesern dagegen bekannt vorkommen wird und auf wieder andere vielleicht sogar entlastend wirkt. Ich beschränke mich auf zwei längere Zitate, weil man den ganzen Text auch selbst online hier nachlesen kann:

„Um 9.15 sind alle heute zum Erscheinen Entschlossenen vollzählig. Gelegentliche Ermahnungen, mit dem Thema Pünktlichkeit doch erwachsen und so umzugehen, als sei die Universität ein Arbeitgeber, verfangen dauerhaft ebenso wenig wie die wiederholt vorgebrachten Hinweise, dass in akademischen Lehrveranstaltungen nicht gefrühstückt wird. […] In der Seminarsitzung heute fehlt einer der zwei Referenten. Die letzten Wochen war er da, er hat das Doppelreferat angeblich mit einem Kommilitonen vorbereitet, nun fehlt er unentschuldigt. Ich bin weniger überrascht als der vereinzelte Referent. Inzwischen muss ich davon ausgehen, jede Sitzung eines Seminars, in dem aufgrund eines seit einem Dreivierteljahr bekannten Themenplans Referate gehalten werden sollen, mit Unterrichtsmaterialien wie eine Schulstunde auffangen zu können, wenn die Referenten ohne oder nach kurzfristiger Absage ausfallen“.

Nach dieser resignierend wirkenden Darstellung eines Dauerzustands folgt eine konkrete Episode über den „vereinzelten Referenten“:

„ ´Hallo. Ich bin der Marco und erzähle Euch heute etwas über, äh, …´. Marco bekommt durch die Mithilfe einer Kommilitonin den Beamer nach nur fünf Minuten in Gang. … Marcos halbes Referatsthema ist die Rolle der Reichsregierung in der Julikrise 1914. Sein fehlender Mitreferent hätte über den Generalstab sprechen sollen. Aufteilung und die einzelnen Punkte der Agenda einschließlich gedruckter Quellen und einschlägiger Sekundärliteratur habe ich mit Marco, der im fünften Fachsemester eines sechssemestrigen B.A.-Studiengangs ist, detailliert durchgesprochen. Der Beamer wirft nun Marcos Namen, den fast fehlerfrei getippten Titel seines Referats, Datum und Matrikelnummer, das Logo unserer Anstalt sowie die drei Gliederungspunkte an die weiße Wand. Diese kommen mir bekannt vor, weil ich sie Marco vorgeschlagen habe. Neun Minuten lang wird Marco, der aufgefordert war, ein diskussionsorientiertes Referat mit Thesen zu halten und den Seminarteilnehmern die für ihn ausgesuchten Schlüsselquellen vorzustellen, eine Chronologie der Julikrise 1914 vortragen, die erkennbar aus der Datenliste stammt, die ich in den Semesterferien vor dem Seminar neben anderen Materialien zur Verfügung gestellt habe. […] Meiner Einladung, einmal ausführlich über sein Referat unter vier Augen zu sprechen, kommt Marco nicht nach, wird sich aber über die Note auf seinem Leistungsnachweis beim Studiendekan beschweren und mich als Prüfer in seinem B.A.-Abschluss meiden. Aller Wahrscheinlichkeit nach wird er danach irgendwo ins Masterstudium gehen.“

Ob das nun eine „ganz normale Seminarsitzung“ – was ja ein wenig nach Repräsentativität klingt – oder gar nur die Spitze eines Eisbergs oder ein Beispiel ist, das man zwar kennt, aber nicht die Mehrheit von Seminarsitzungen repräsentiert, sei dahingestellt. Ich bin ja schon der Meinung, dass die Leistungen und das Engagement von Studierenden AUCH eine Reaktion auf die didaktische Leistung und das Engagement eines Lehrenden sind. Bezeichnenderweise signalisiert der Bericht schon eine recht negative Haltung zu hochschuldidaktischen Bemühungen, und vielleicht könnte man ja mal auf die Idee kommen, dass das eine mit dem anderen durchaus zusammenhängt. Allerdings kommt es auch nicht von ungefähr, dass – so meine Vermutung – viele Hochschullehrer, die das lesen, wissend lächeln werden, denn natürlich gibt es diese Fälle überall. Was mich z.B.  immer sehr ärgert ist, wenn Studierende kein Feedback haben wollen, oder dieses einfordern, dann aber gar nicht richtig zur Kenntnis nehmen geschweige denn berücksichtigen. Da kommt man sich dann einfach nur veralbert vor und fragt sich schon, warum man sich das antut. Aber es gibt eben AUCH die anderen „Fälle“ und „Sitzungen“ – das heißt: Lehrsituationen, in denen es Entwicklungen, kleine und größere Verbesserungen von Leistungen, entstehendes Interesse und Veränderungen im Laufe der Zeit (manchmal auch länger verzögert) gibt, die man mit Testverfahren und Evaluationsmaßnahmen am Ende einer Veranstaltung nicht einfangen kann, sondern die man erst erkennt, wenn man Studierende etwas länger kennt, mit ihnen spricht und auch mal genauer hinhört.

Also, lieber Kollege (wie man so schön sagt): Ich kann das einerseits schon verstehen (und teilweise nachfühlen) – den Frust und die Unverständnis vor dem Neun-Minuten-Referat, der schlampigen Sprache und Gefummel am Beamer, aber: Ebenso wenig, wie wir das als neues Niveau verwenden und aus universitären Veranstaltungen reine Schulstunden machen dürfen, sollten wir dauerhaft zynisch werden (es reicht ja eine zeitlich begrenzte Ironie) und in die Haltung verfallen, dass da nichts mehr zu retten ist. Und wer auf dem Standpunkt steht, dass jede Form von didaktischer Gestaltung den wissenschaftlichen Himmel zerstört, der darf sich nicht wundern, wenn ihn neue Herausforderungen in der Lehre erst mal ratlos machen.

Geld, Reputation, Gestaltungsfreiheit, Zeit

Geld, Reputation, Gestaltungsfreiheit, Zeit – das sind laut neuester Empfehlungen des Wissenschaftsrats „zur Bewertung und Steuerung von Forschung“ (online hier zugänglich) die wichtigsten „steuerungswirksam einsatzbaren Anreize“ an Hochschulen. Diese konsequent einzusetzen, befürworten die einen, um die Leistungsfähigkeit in der Forschung zu erhöhen. Die anderen kritisieren dies als kontraproduktiv und attestieren solchen Verfahren eher negative Effekte für das Wissenschaftssystem. Die Gegensätzlichkeit dieser Positionen sowie deren Unvereinbarkeit hat jetzt der Wissenschaftsrat jetzt erkannt und liefert Empfehlungen dafür, wie man damit umgehen kann, falls es gelingt, dass man „beiden Seiten Zugeständnisse abverlangt“ (S. 10). Erklärtes Ziel des Papiers ist es, „die Auseinandersetzungen um die Bewertung und Steuerung von Forschung zu versachlichen“ (S. 13), was voraussetzt, dass diese bislang als unsachlich wahrgenommen wird. Zudem soll „eine Balance der unterschiedlichen Interessen“ (S. 13) angestrebt werden. was daraufhin hindeutet, dass hier verschiedene Wissenschaftlergruppenoffenbar tatsächlich verschiedene Interessen haben (Geld, Reputation, Gestaltungsfreiheit, Zeit?).

Zunächst werden einige Beobachtungen zusammengetragen zu: (a) Bewertung durch Peers, (b) Bewertung durch quantitative Indikatoren, (c) Evaluationsverfahren, (d) Ratings und Rankings, (e) Steuerung über Mittelallokation (leistungsorientierte Zuweisung des Landesmittel an Hochschulen, leistungsorientierte Mittevergabe innerhalb der Hochschulen und W-Besoldung), (f) Standards „guter wissenschaftlicher Praxis“, (g) Folgen für die Lehre und (h) wissenschaftspolitischen Rahmenbedingungen. Dann folgende die eigentlichen Empfehlungen: zunächst „übergeordnete Empfehlungen“, die – per definitionem – relativ abstrakt sind, und dann einzelne Empfehlungen, die sich auf die gerade genannten Gegenstände der Beobachtung beziehen.

Es ist aus meiner Sicht durchaus empfehlenswert, sich das durchzulesen. Viele Punkte sind derart, dass sie rasch auf Zustimmung stoße werden, so z.B. weniger Dokumentationen und Evaluationen, indem das alles besser koordiniert und getaktet wird. Dünn sind die Vorschläge zum Peer Review (S. 37 f.): Mehr Transparenz durch offene Peer Review-Verfahren werden z.B. gar nicht erwähnt. Dass der Begriff der Forschungsleistung möglichst breit gefasst werden sollte (S. 34), hört sich ebenfalls gut an: Hinweise auf die damit (unter anderem) verbundene Notwendigkeit, dass auch eine Diskurs über das Wissenschaftsverständnis in den einzelnen Disziplinen stattfinden muss, fehlt allerdings. Am Glauben, dass Wettbewerb prinzipiell die Dinge heiligt, wird weitgehend festgehalten, wenn z.B. empfohlen wird, Drittmittel, die „kompetetiv eingeworben“ wurden, höher zu gewichten als solche, die in nicht-kompetetiven Verfahren vergeben worden sind (S. 40). Auch wenn man vielen Ratings keine hohe Qualität bescheinigt, hält der Wissenschaftsrat auch in den aktuellen Empfehlungen an Ratings als Maßnahme der Steuerung von Forschungsleistungen fest (S. 44). Und zur W-Besoldung mag man jetzt noch nichts sagen (S. 46); dazu soll es eine eigene Empfehlung geben.

Was ich jetzt davon halte? Es ist gut, DASS sich der Wissenschaftsrat mit dem Thema beschäftigt, zeigt es doch, dass die in den letzten Jahren mehr gewordenen kritischen Stimmen nicht mehr überhört werden (können). Man kann auch einige „Zugeständnisse“ aus dem Empfehlungen ebenso wie durchaus sinnvolle Vorschläge herauslesen. Alles in allem aber läuft es meiner Einschätzung nach auf ein paar Korrekturen des gegenwärtigen Steuerungssystems hinaus, keinesfalls aber auf einen Kurswechsel. Es kann sich ja jeder (Wissenschaftler und Hochschullehrer) mal fragen, womit er sich am schnellsten locken lässt (mehr Geld, mehr Reputation, mehr Gestaltungsfreiheit, mehr Zeit?) und ob er einen echten Kurswechsel mittragen würde …

Entwicklungsforschung – allmählich einkreisen

Wie Anfang November bereits (hier) angekündigt, ist nun der Text zur Entwicklungsforschung bzw. entwicklungsorientierten Bildungsforschung fertig, den ich zusammen mit Werner Sesink verfasst habe. Entstanden ist dieser anlässlich eines Vortrags (siehe hier). Das Thema beschäftigt mich seit vielen Jahren. Den ersten Text dazu habe ich – mit einem Fokus auf die englischsprachigen Ausführungen zu Design-Based Research – 2005 für die Unterrichtswissenschaft geschrieben. Es folgte 2007 ein Herausgeberband i.w.S. zum Thema Bildungswissenschaften im Spannungsfeld zwischen Nutzen und Erkenntnis zusammen mit Joachim Kahlert, zu dem ich auch einen eigenen Text zur Entwicklungsforschung beigetragen habe. 2010 dann gab es noch einen Beitrag in einem Sammelband aus der Psychologie, in welchem ich stärker die Frage zu beantworten versuchte, welchen Erkenntniswert Entwicklungstätigkeiten in der Wissenschaft haben (siehe hier).

Man kann nicht sagen, dass diese Beiträge sonderlich viel diskutiert worden sind – weder zustimmend noch kritisierend. Nur vereinzelt kamen Diskussionsbeiträge, was sich aber in der letzten Zeit etwas zu ändern scheint – also in dem Sinne, dass thematisiert wird, welche Art(en) von Forschung die Bildungswissenschaft braucht. Dem Aspekt der Entwicklung (inklusive der Pilotierung, Umsetzung im „Echtbetrieb“ und beleitenden Erhebungen und Auswertungen) wird dabei ebenfalls eine gewisse Aufmerksamkeit geschenkt, auch wenn da nach wie vor die Meinung vorherscht, dass das an sich mit Wissenschaft nichts zu habe, denn das Hauptargument, das dann als Pro-Argument ins Feld geführt wird, ist der praktische Nutzen.

Wie auch immer: Nun kommt der nächste Anlauf – jedes Mal sozusagen aus einer leicht anderen Perspektive, was hoffentlich dazu beiträgt, die Chancen und Grenzen einer Entwicklngsforschung allmählich einzukreisen und – das wäre natürlich das Beste – Mitstreiter/innen zu finden, denn nur dann kann sich ein alternativer empirischer (!) Zugang auch entwickeln. Und ja – ich bezeichne das als empirisch und bin nicht bereit, den derzeit engen Empiriebegriff im Kontext der Schulforschung zu teilen.

Sesink-Reinmann_Entwicklungsforschung_v05_20_11_2011

Stabhochsprung-Talente

Gleich mehrere Themen bzw. Probleme der Hochschule, ein bisschen bunt durcheinander, aber anschaulich dargestellt, mischt ein Text (online hier) des Wirtschaftsinformatikers Peter Mertens (auf den mich Frank aufmerksam gemacht hat): (a) das Problem der zeitlich variierenden, etwas willkürlich wirkenden Verschiebung der Gewichtung verschiedener Aufgaben des Hochschullehrers (analog im Sinne einer Aufforderung an den Zehnkämpfer, sich jetzt möglichst zu 90%auf Stabhochsprung zu konzentrieren), (b) das Problem der einseitigen Ausrichtung wissenschaftlicher Methoden, (c) das damit zusammenhängende Problem der Konzentration von Publikationen auf englischsprachige Journals mit Double-Blind-Review-Verfahren, (d) das Problem der mangelnden Kooperation mit der Praxis (das ebenfalls mit a bis c zusammenhängt) und (d) das Problem der mangelnden Anerkennung von Lehrleistungen des Hochschul(!)lehrers. Dabei bringt Mertens bekannte Beispiele: junge Wissenschaftler, die sich gar nicht mehr trauen, sich zu bewerben, weil ihnen Publikationen in bestimmten Zeitschriften fehlen, mehrere hundert Stunden Aufwand zur Überarbeitung von Zeitschriftenartikeln auf der Grundlage mehrere, untereinander und in sich widersprüchlicher Gutachten oder Preisträger, die offenbar stolz darauf sind, mit der Lehre nichts am Hut zu haben. Mertens plädiert für ein rasches Umdenken und kommt zu folgendem Fazit: „Für das Umdenken steht nicht beliebig viel Zeit zur Verfügung. Denn wenn die Stabhochspringer überall dominieren, werden sie wieder Stabhochsprung-Talente um sich versammeln und die anderen Disziplinen bei der Vergabe von Punkten marginalisieren.“

Ernst gemeinte Exzellenz?

„Datenqualität als Schlüsselfrage der Qualitätssicherung von Lehre und Studium an Hochschulen“ – so lautet der Titel einer bereits 2008 online veröffentlichten Dissertation von Philipp Pohlenz, auf die ich vor kurzem gestoßen bin. Die Arbeit gibt einen guten Überblick über Qualitätsmanagement und Evaluation an Hochschulen und thematisiert vor allem die Gütekriterien der verwendeten Verfahren und resultierenden Ergebnisse. Online ist die Arbeit hier abrufbar.

Die Ergebnisse der Studie von Pohlenz lassen (was jetzt nicht so erstaunlich ist, aber immerhin nicht als Polemik abgetan werden kann) erhebliche Zweifel vor allem an der Validität studentischer Qualitätsurteile aufkommen – jedenfalls verglichen mit den Intentionen der Evaluierenden und im Zusammenhang mit der Art der Nutzung dieser Daten für Hochschulentwicklung und -politik! Das Interesse der Studierenden, die Studienphase, in der sie sich befinden, aber auch die Infrastruktur des Hochschulortes (um nur ein paar Beispiele zu nennen) beeinflussen das Urteil über Lehre und Studium erheblich und schränken die Aussagekraft entsprechend ein. Aber sogar die meist als objektiv geltenden Hochschulstatistiken halten, so eine Erkenntnis der Arbeit, nicht immer, was sie versprechen. Pohlenz kommt zu dem Schluss, dass vor allem die in der Praxis bevorzugten einfachen Evaluationsverfahren mit simplen Indikatoren zahlreichen Fehlerquellen ausgesetzt sind.

In den ersten Teilen der Arbeit werden auch andere Funktionen von Evaluationen thematisiert als z.B. die Leistungsbewertung von Hochschulen oder von Hochschullehrern (z.B. die Partizipation der Studierenden). Dies ist aus meiner Sicht ein ganz wesentlicher Punkt, der dann aber doch wieder in den Hintergrund rückt.

Das Abschluss-Statement in der Dissertation lautet: „Evaluation steht vor der Aufgabe, Routinen zu entwickeln, die der Vielgestaltigkeit der Qualität der Lehre sowie der Realität des Hochschulalltages gerecht werden. Nur so kann sie den Anspruch darauf erheben, als Instrument der Hochschulentwicklung ernst genommen zu werden. Insofern dies den Einsatz komplexer und verschiedene Ansätze versöhnende Verfahren und damit einen stärkeren Mitteleinsatz erfordert, ist das Hochschulwesen insgesamt gefragt, inwieweit die vielfach verkündete Formel von der Entwicklung von Exzellenz durch qualitätssichernde Verfahren ernst gemeint und mit der Bereitschaft verknüpft ist, die entsprechend notwendigen Investitionen in die Zukunft zu tätigen.“ Dem kann man nur zustimmen …

Alles gut mit Gutachten?

Einen Monat lang konnte man nun im GMW-Blog Kommentare zum Thema Peer Review bzw. Begutachtungsverfahren in der GMW (Jahrestagung bzw. Tagungsband) machen – nämlich hier. Gut – ich war mit meinem Kommentar auch spät dran. Aber dass es am Ende nur vier Personen gab, die etwas dazu zu sagen haben/hatten, ist vielleicht doch etwas wenig. Gibt es keinen Verbesserungsbedarf bzw. wird keiner gesehen? Oder war das nur zu versteckt und viele haben die Möglichkeit, ihre Meinung und ihre Vorschläge zu diesem Thema kundzutun, nicht bemerkt?

2010 hatte ich mit Silvia und Christian zusammen das Thema Peer Review bereits als Beitrag eingereicht (hier). Die Resonanz war auch damals eher verhalten. Da das gegenseitige Feedback zwischen Wissenschaftlern eine zentrale Säule des Wissenschaftsbetriebs ist und infolge von Evaluationen verschiedenster Art zudem über „Karrieren“ entscheiden kann, wundert es mich doch sehr, dass dieses Thema in Diskussionen so wenig aufgegriffen wird. Peer Reviews sind aus meiner Sicht einerseits so etwas wie eine besondere Art der Kommunikation und Vermittlung von Kritik und Begründung und damit ein ganz wichtiger Schritt in Erkenntnisprozessen. Andererseits haben Peer Reviews die Funktion von „Qualitätshütern“, sind mitunter eine Art Sozialisationsinstanz (manchmal hat man auch den Eindruck: Erziehungsinstanz) in einer wissenschaftlichen Community. Mit diesen zentralen Aufgaben sollte doch das Peer Review selbst Gegenstand der kritischen Reflexion sein und bleiben. Es darf sich meiner Meinung nach durchaus auch verändern, weiterentwickeln – und zwar mit Blick auf das Ziel, die jeweilige „Sache“ weiterzubringen, um die es geht.

Wo also bleiben all die (kritischen und kreativen) Stimmen?

 

Da muss man durch

Gestern war ich an der Uni Frankfurt auf einer hochschuldidaktischen Veranstaltung für Professoren: Es ging im Großlehrveranstaltungen und ich war gebeten worden, die Teilnehmer knapp eineinhalb Stunden mit Informationen und Anregungen zu diesem Thema zu beschäftigen. Zweiter Referent war Wolfgang Effelsberg von der Universität Mannheim, der von seinen Erfahrungen mit Response-Systemen in Vorlesungen berichtete.

Anbei das Vortragsmanuskript inklusive Folien

Vortrag_Frankfurt_Nov11

Folien_Vortrag_Frankfurt_Nov_11

Positiv war, dass Professoren aus recht verschiedenen Fachgebieten vertreten waren. Dabei wurde wieder einmal deutlich, dass es doch einerseits große fachspezifische Besonderheiten gibt, dass andererseits aber ähnliche Probleme vorhanden sind. Unter anderem das Thema „Erwartungen“ auf Seiten der Lehrenden und der Studierenden sowie das Problem der oft schwierigen Kommunikation dieser Erwartungen scheinen doch vielen unter den Nägeln zu brennen. Ungewöhnlich war übrigens aus meiner Sicht die folgende Erfahrung, die Holger Horz mitteilte: Es gäbe Studierende, die würden eine trockene und schwer verständliche Vorlesung als eine Art Initiationsritus erleben, die man entsprechend besser nicht verändern soll, denn: „Da muss man durch!“

Gerne mal wieder!

Am 2. und 3. November findet an der Universität Leipzig die Herbsttagung 2011 der Sektion Medienpädagogik statt. Sie beschäftigt sich mit methodologischen und methodischen Herausforderungen und Perspektiven der medienpädagogischen Forschung. Im Programm (hier der Link) heißt es: „Ziel der Tagung ist es, sowohl einen Überblick über aktuelle Problem- und Fragestellungen als auch über die methodischen Innovationen, Designs und Techniken zu geben, mit denen die Medienpädagogik auf diese Herausforderungen reagiert.“ Zusammen mit Werner Sesink habe ich einen Beitrag verfasst, der mal wieder das Thema Gestaltung/Design/Entwicklung (wie immer man das nennen will) aufgreift. Unter dem Titel „Entwicklungsorientierte Bildungsforschung“ geht es darum, die genuin pädagogischen Begründungen für eine Entwicklungsforschung zu entfalten und dabei auch ähnliche, bereits bestehende Ansätze zu reflektieren (an anderer Stelle habe ich bereits im Zuge einer Ablehnung des Themas auf einer anderen Veranstaltung – nämlich hier – auf dieses Vorhaben hingewiesen). Die Textform des Beitrags ist in Grundzügen vorhanden, aber noch nicht fertig. Leider kann ich selbst aufgrund einer Terminüberschneidung nicht an der Tagung teilnehmen, sodass Werner Sesink unseren Beitrag allein referieren wird. Dennoch bin ich natürlich gespannt auf die Rückmeldungen, die wir dann auch noch in die Fertigstellung des Textes einfließen lassen können.

Die Zusammenarbeit mit Werner Sesink war bzw. ist für mich eine herausfordernde, aber äußert interessante Erfahrung. Bei der gemeinsamen Texterstellung habe ich viel gelernt und vor allem auch Einblick in Literatur erhalten, mit der ich mich bisher wenig beschäftigt habe. Als nicht einfach, aber als möglich hat sich dabei herausgestellt, dass man sich auch bei Unterschieden in der gewohnten sprachlichen Artikulation zusammenraufen und voneinander lernen kann. Von daher kann ich nur sagen: So ein Experiment wiederhole ich gerne einmal wieder!