Heiligenbilder mit Argumenten verwechseln

Joachim Wedekind hat in seinem Blog (hier) auf ein interessantes Buch zum Einfluss von PowerPoint auf unsere Denk- und Sprechgewohnheiten aufmerksam gemacht, das ich mir gleich mal bestellt habe. Das Thema ist nicht neu, aber das zugrundeliegende Problem nach wie vor ungelöst: Wie nutzt man eine Software-Anwendung wie PowerPoint so, dass es dem, was man sage will, dient und nicht umgekehrt? Ein guter Tipp ist hier auch der Link zu einem SZ-Artikel in einem Kommentar zum Blog-Post (hier). Dem Autor des Beitrags, Thomas Steinfeld, ist vor allem der Unterschied zwischen einem Vortrag und einer Präsentation wichtig: „Es ist offenbar selbstverständlich geworden, der Rede nicht zu vertrauen, so sehr, dass deren Eigenarten gar nicht mehr bedacht werden, unter der Voraussetzung, auch sie sei eine ´Präsentation´. Wenn nämlich beides – der allein in Worten gestaltete und der von Bildern und Schrift ´unterstützte´ Vortrag – als ´Präsentation´ betrachtet wird, gewinnt das Zeigen und Werben, das Anpreisen durch ´Visualisierung´, einen entscheidenden Vorrang gegenüber dem Wort, das dann nur als Mittel behandelt wird. Oder anders gesagt: Wer eine Rede für eine Präsentation hält, stiehlt sich aus der Gegenwart seines Vortrags davon, indem dieser nur auf etwas außerhalb Befindliches verweist. Er wäre auch fähig, Verkehrsschilder, Piktogramme oder Heiligenbilder (denn um mehr geht es ja, streng genommen, bei Powerpoint-Präsentation nicht) mit Argumenten zu verwechseln.“

Nun, es gibt sicher eine ganze Reihe von Ausnahmen, bei denen ein gut gemachtes Bild, vor allem auch eine (logische) Grafik, das Mitdenken beim Zuhören unterstützt. Gute Erfahrungen habe ich auch damit, wenn man komplexe Zusammenhänge visualisiert und genau dies schrittweise aufbaut, was aber eine ganz genaue Abstimmung zwischen Wort und Bildaufbau verlangt. Öfter aber trifft man auch an Universitäten (nicht nur in Unternehmen) auf das Phänomen des „Folien-Besprechens“ – und hierzu halte ich Steinfelds Diagnose für sehr gelungen.

Das blinde Vertrauen auf die Folie gar als Lektüre-Grundlage für Studierende war einer meiner Gründe für den Versuch einer Art „Podcast-Text-Wiki-Tutorium“-Vorlesung ;-), über die ich hier schon mehrfach berichtet habe (z.B. hier). Am 10. März werde ich auf dem „2. Symposium E-Learning an Hochschulen. Sind die Lehrjahre vorbei?“ an der TU Dresden (hier das Programm) unsere Evaluationsergebnisse und dann natürlich auch eine Zusammenfassung hier online verfügbar machen. Eines meiner Ziele war es, Studierende dazu zu motivieren, sich mit einer deswegen auch stark reduzierten TEXTauswahl zu beschäftigen, sie darin durch Podcasts zu unterstützen und mit einem Wiki zu aktivieren – anstatt Folien zu „lesen“ und auswendig zu lernen. Ob und wie es gelungen ist, einen Sieg über die PowerPont-Kultur davonzutragen, verrate ich im März.

Begrenzter Überraschungswert

Jeder, der sich mit der Gestaltung von Lernumgebungen beschäftigt, trifft unweigerlich auf die von Terhart bereits 2002 als „fremde Schwestern“ bezeichnete Allgemeine Didaktik und Lehr-Lernforschung und ihre schwierige Beziehung (nachzulesen in der Zeitschrift für Pädagogische Psychologie, 16, 77-86). Nun widmet sich diesem Beziehungsdrama zwischen zwei bildungswissenschaftlichen Disziplinen ein ganzes Buch mit dem Titel „Allgemeine Didaktik und Lehr-Lernforschung. Kontroversen und Entwicklungsperspektiven einer Wissenschaft vom Unterricht“, herausgegeben von K.-H-. Arnold, S. Blömeke, R. Messner und J. Schlömerkemper (Jahr: 2009; Verlag: Klinkhardt). Bereits ein Jahr vorher (2008) hat die Zeitschrift für Erziehungswissenschaft ein Sonderheft (mit der Nr. 9) zu dem Thema herausgebracht (siehe hier). Während dort tendenziell mehr Pädagogische Psychologen zu Wort kommen, vereint das genannte Buch eher pädagogische Stimmen.

Für jemanden, der sich von der Wissenschaft nicht nur die Beschreibung und Erklärung von Lehr-Lern- und Bildungsphänomenen, sondern auch einen direkten oder zumindest indirekten Einfluss der theoretischen und empirischen Erkenntnisse auf die Praxis erhofft, ist diese Unfähigkeit zur Kooperation unbegreiflich. Wer tiefer geht und sich wissenschafts- und erkenntnistheoretische Voraussetzungen der beiden „Lager“ betrachtet, kann freilich die Probleme nachvollziehen, aber die Frage bleibt: Warum werden diese nicht gelöst? Aus welchem Grund setzen sich einzelne Lösungsideen (z.B. Vorschläge von Aebli) nicht oder kaum durch? Wie kann es sein, dass sich stattdessen Gräben vertiefen oder allenfalls mit dem Material des gerade Stärkeren provisorisch zugeschüttet werden?

Hängen geblieben bin ich während der Lektüre des neuen Bandes von Arnold et al. (2009) beim Beitrag von Jörg Schlömerkemper, den es (was für ein Glück!) auch online gibt (hier): Unter dem Titel „Das Allgemeine in der Empirie und das Empirische im Allgemeinen“ formuliert er einen aus meiner Sicht aussichtsreichen Versuch, zumindest einige der Hindernisse zu überwinden, welche die beiden Lager trennen. Eine wichtige Rolle spielt bei ihm der Begriff des Oszillierens. Schlömerkemper postuliert, die philosophisch orientierte Reflexion über die Ziele von Bildung und ihre anthropologischen Bedingungen einerseits und die empirisch orientierte Analyse tatsächlich anzutreffender Prozesse in der Bildung andererseits als Endpunkte eines Spektrums zu sehen, zwischen denen die Wissenschaft oszillieren müsse. Mit anderen Worten: Die allgemeine Reflexion muss sich der empirischen Überprüfung stellen und empirische Befunde müssen bezogen auf Normen/Sollwerte reflektiert werden (Seite 163). Das ist mehr als gegenseitiger Respekt oder Duldung zwischen den „fremden Schwestern“, so der Autor. Das ist eine qualitative Optimierung bildungswissenschaftlicher Forschung – und das sehe ich auch so. Exemplarisch am Verhältnis von Bildung und Kompetenz (zwei Begriffe, die in den letzten Jahren ja häufig ins Feld geführt werden) verdeutlicht er seine Idee einer „hermeneutisch-empirischen Schnittstelle“. Ich finde das ausgesprochen interessant und werde versuchen, das noch besser zu verstehen und mit meinen Überlegungen zu diesem Thema zu verbinden.

Aktuell aber sind wir von solchen Integrationsglücksfällen wohl noch weit entfernt, wenn man das Gros der Allgemeinen Didaktik und Lehr-Lernforschung vor Augen hat. Die gegenseitige Unverständnis bringt Andreas Gruschka im Band von Arnold et al. (2009) aus meiner Sicht gut auf den Punkt, wenn er sagt: „Wenn die Unterrichtsforschung erklärt, dass die Wahrscheinlichkeit erfolgreichen Lernens steigt unter der Voraussetzung, dass der Lehrer fachkompetent und den Schülern zugewandt ist, er klare Aufgaben stellt und die Schüler mit dem Stoff aktiviert umgehen lässt, so kann man es den Didaktikern nicht verdenken, dass sich ihre Überraschung darüber in Grenzen hält“ (S. 98 f.).

Fehlinterpretationen

„Neue Einsichten in Lehren, Lernen und Kompetenz“ lautet der Titel eines aktuellen ITB-Forschungsberichts (Nr. 40) von Gerald Straka und Gerd Macke. Online ist der Artikel hier abzurufen. Ziel des Beitrags ist es, ein handlungstheoretisch begründetes Konzept für eine lehr- und lerntheoretische Didaktik vorzustellen und zwei „breit rezipierte“ andere Ansätze, nämlich den Cognitive Apprenticeship-Ansatz und den „Ansatz zur Gestaltung integrierter Lernumgebungen“ kritisch zu beleuchten. Da letzteres den Lehrbuchartikel von Heinz Mandl und mir im Lehrbuch Pädagogische Psychologie betrifft, komme ich kaum umhin, dazu Stellung zu nehmen.

Also erst einmal hat mich verwundert, dass und wie Straka und Macke auf die Idee kommen, ein Rahmenkonzept, das dazu da ist, für Studierende die Vielfalt an Literatur zur Gestaltung von Lernumgebungen zu strukturieren und Möglichkeiten der Verbindung verschiedener Auffassungen und Modelle in der Praxis darzulegen, als einen eigenen didaktischen Ansatz zu interpretieren und z.B. auf die gleiche logische Ebene wie das Modell des Cognitive Apprenticeship zu stellen. Normalerweise ist ein Lehrwerk nicht der Ort, an dem man einen neuen „Ansatz“ präsentiert und auch von uns war dies entsprechend nicht intendiert. Unser „Ansatz“ ist der Versuch, verschiedene Lehr-Lernmodelle zu ordnen und dem Leser eine Hilfe zur Bewertung dieser Modelle (im Hinblick auf verschiedene Ziele) zu geben. Natürlich kommen dabei auch eigene Positionen (etwa zum Lernbegriff) zum Vorschein. Das ist ja wie bei einer Vorlesung, deren primärer Zweck darin besteht, Inhalte zu präsentieren und zwar übersichtlich, die Kriterien für diese Übersicht aber durchaus subjektiv sind. Aber der hauptsächliche Zweck ist nicht eine neue theoretische Richtung, sondern die Ordnung bestehender Inhalte und Erkenntnisse insbesondere mit Blick auf die Praxis in Bildungsinstitutionen, in der ja auch die Mischung von Methoden üblich und nötig ist (weil immer verschiedene und mehrere Ziele verfolgt werden).

Besonders schön ist dann der Schlussabsatz, der lautet: „Möglicherweise haben Ansätze vom Typ „kognitive Meisterlehre“ und die breit rezipierte Position der „integrierten Lernumgebungen“ zusammen mit der Bachelorisierung zur Vermehrung der Praxisanteile der bundesdeutschen Lehrkräfteausbildung beigetragen“ (Seite 36). Das wiederum führe zu der Gefahr zum „model of master teacher“ zurückzukehren. Hmm – vielleicht stehe ich ja auf dem Schlauch, aber diese kompakte Zusammenfassung hinterlässt bei mir jetzt doch gleich mehrere offene Fragen: Ist das jetzt aus Sicht der Autoren gut oder schlecht, wenn die Lehrkräfteausbildung Praxisanteile enthält? Führen die Stärkung des Lehrenden bzw. deren Kompetenzen automatisch zur Schwächung des Lernenden? (so könnte man es lesen)? Sind ein (deutscher!) Lehrbuchartikel (Vorläufer immerhin im verdächtigen Jahr 1999) und der Bologna-Prozess (Beschluss auch 1999) eine unheilvolle Allianz eingegangen? Wenn ja, wie soll man sich das denn genau vorstellen?

Um nicht missverstanden zu werden: Bei Beitrag von Straka und Macke ist durchaus interessant und lese immer gerne neue Beiträge zu didaktischen Themen. Aber die groß angekündigte Kritik ist doch ein bisschen dünn und beruht vor allem auf einigen Fehlinterpretationen!

Überfordert, was anderes erwartet oder zu hohe Ansprüche?

Diese HIS GmbH hat eine neue Studie zum Thema Studienabbruch online gestellt. Der genau Titel lautet: „Ursachen des Studienabbruchs in Bachelor- und in herkömmlichen Studiengängen“. Die Pressemitteilung kann hier abgerufen werden. Gleich darunter befindet sich der Link zum Bericht, der knapp 200 Seiten umfasst und einen differenzierten Eindruck macht. Es handelt sich um eine bundesweite Befragung von Exmatrikulierten des Studienjahres 2007/08; der Fragebogen findet sich am Ende des Berichts.

Unabhängig von der mehr oder weniger latenten Behandlung des „Bologna-Problems“ (verstärkt oder reduziert der Bachelor den Studienabbruch?) finde ich die Folgerungen der Autoren besonders interessant, was die „Problemlagen“ mit Bündelung mehrerer Faktoren betrifft, die einen Studienabbruch befördern. Ich zitiere aus der Zusammenfassung:

„Drei Gruppen von abbruchfördernden Problemlagen spielen … eine besondere Rolle Eine erste Gruppe von Studienabbrechern ist dadurch gekennzeichnet, dass sie schon mit schulischen Defiziten und schlechter Schulabschlussnote das Studium aufnimmt, der es dementsprechend an fachlichen Voraussetzungen mangelt. Wenn ihre Studienwahl zudem in hohem Maße extrinsisch bestimmt ist und sie über zu wenig Informationen über die Studienanforderungen bei Studienbeginn verfügten, fällt es solchen Studierenden schwer, hohe Studienleistungen zu erbringen. Die Abbruchgefahr steigert sich noch, wenn sie nicht in der Lage sind, sich die notwendigen Betreuungsleistungen zu erschließen bzw. wenn sie keine motivierende Betreuung durch die Lehrenden erfahren. Dieses Bündel von Bedingungen wirkt vor allem auf einen Studienabbruch aufgrund von Leistungsproblemen hin. Eine weitere Gruppe von Studienabbrechern startet mit falschen Studienerwartungen hinsichtlich der fachlichen Inhalte und der beruflichen Möglichkeiten. Ihre Studienwahl zeichnet sich häufig durch Unsicherheit bzw. dadurch aus, dass nicht das Wunschfach realisiert werden konnte. Sie geraten in Gefahr, das begonnene Studium wegen mangelnder Studienmotivation abzubrechen. Für eine dritte Gruppe von Studienabbrechern ist bezeichnend, dass sie in hohem Maße erwerbstätig sind, da dies ihre wichtigste Möglichkeit ist, die Studienfinanzierung zu gewährleisten. Das ist häufig bei Studierenden der Fall, die eine Berufsausbildung absolviert haben und eine lange Übergangsdauer zur Hochschule benötigten. Höhere Lebensansprüche, die zum Beispiel aus Zeiten einer Berufstätigkeit vor dem Studium resultieren, verschärfen die problematische Lage noch. Die betreffenden Studierenden sind stärker als andere in Gefahr, ihr Studium aus finanziellen Gründen abzubrechen.“

Diese Ergebnisinterpretationen finde ich deswegen so interessant, weil alle drei unmittelbare Hinweise für Gestaltungsmöglichkeiten an den Hochschulen bieten: (a) Gestaltung des Übergangs Schule – Hochschule; (b) Information, Erwartungssteuerung und Motivationsförderung; sowie (c) berufsbegleitende Studiengänge. Das sind bekannte Forderungen und Ziele, die durch die Studie erneut an Brisanz gewinnen.

Minderheitenmeinungen

Erst jetzt bin ich auf einen kurzen Beitrag (hier) von Hans Brügelmann aufmerksam geworden, mit dem er ein „offenes Forum“ zu bildungswissenschaftlichen Themen (Titel: Erziehungswissenschaft und Bildungsforschung kontrovers) anstößt und auf diesem Wege eine Alternative zu anonymen Peer Review-Verfahren anbietet. Das Forum (leider etwas versteckt eingebettet in das Pädagogische Journal) soll die Möglichkeit bieten, auch Minderheitenmeinungen zu diskutieren, „insbesondere von Manuskripten und Förderanträgen, die in Peer-Review-Verfahren abgelehnt worden sind“. Na ja, da wäre ich ja ein geeigneter Kandidat, der das Forum allein füllen könnte. 😉 Aber entweder es geht wenigen so wie mir (was nicht anzunehmen ist) oder es traut sich keiner (was schon wahrscheinlicher ist). Gestartet im Spätsommer 2008 hat das Forum bis jetzt nämlich keinen großen Zulauf finden können: Lediglich ein Beispiel findet sich dort – eines, das aber gut die Probleme des Peer Reviews aufzeigt und vor allem eine große Lernchance für Autoren bieten könnte – wenn denn auch diskutiert werden würde.

In seinem Zweiseiter fasst Brügelmann knapp, aber sehr deutlich die Gründe für seine Initiative zusammen. Dabei macht er vor allem auf die Schwierigkeit aufmerksam, Minderheitenmeinungen einen Platz zu geben. Das formuliert er so: „Sucht man kompetente Peers, werden in der Regel lang gediente VertreterInnen einer Fachdisziplin angefragt, die meist etablierte Positionen vertreten. Für sie aber ist die Versuchung groß, konkurrierende Minderheitenmeinungen klein zu halten. In der Jurisprudenz spricht man zu Recht von „herrschender Meinung“ – in einem doppelten Sinn: Sie prägt über Gerichtsurteile die soziale Wirklichkeit und sichert zudem mit der Ausbildung des Nachwuchses die zukünftige Deutungshoheit über eben diese Wirklichkeit. Diese Mechanismen werden auch bei der Förderung von Projekten durch Stiftungen oder durch die DFG wirksam.“

Ich habe mich mit Hans Brügelmann in Verbindung gesetzt, weil mich interessiert, wie er es sich erklärt, dass ein so wichtiges Angebot keine Resonanz findet: Ist die herrschende Meinung bereits zu stark? In diesem Zusammenhang ist übrigens noch ein anderer Beitrag von Uwe Laucken höchst interessant, obschon er fast 10 Jahre alt ist. Unter dem Titel „Qualitätskriterien als wissenschaftspolitische Lenkinstrumente“ arbeitet er für die Psychologie heraus, wie die herrschende Meinung (in dem Fall die Meinung, das Heil liege im naturwissenschaftlichen Paradigma) nicht nur das Denken und Handeln in der Wissenschaft, sondern auch das in Öffentlichkeit und Alltag beeinflusst. Dabei geht es zwar primär um Evaluation und Qualitätskriterien in der Wissenschaft, was aber aber natürlich in einem engen Zusammenhang zu Peer Reviews zu sehen ist. Der Beitrag ist etwas länger – die Lektüre aber lohnt sich!

Das Elend mit den (Massen)Medien

Ich will jetzt nicht die Bildzeitung, die SZ und die ZEIT in einen Topf werfen, aber einen gemeinsamen Nenner gibt es natürlich schon – nämlich die Ansprache einer vergleichsweise breiten Leserschaft, für die man Komplexität reduzieren muss. Das ist bei einem Massenmedium nun einmal so (auch bei denen mit an sich höherer Qualität) – unabhängig davon, ob der Beitrag auf Papier gedruckt oder ins Netz gestellt wird. Aber Komplexitätsreduktion ist das eine. Ungenauigkeit und nachfolgende Irreführung das andere. Letzteres liegt vor, wenn man einfach schlampig mit Begriffen umgeht, schlecht recherchiert und Widersprüche produziert – in dieser Hinsicht gefährdet ist mit Sicherheit auch das E-Learning-Thema. In einem aktuellen Artikel in der ZEIT online (nämlich hier) z.B. heißt es: „Das Elend mit dem E-Lernen. Die meisten Unternehmen setzen E-Learning-Methoden in der Weiterbildung ein. Trotzdem lernen die Mitarbeiter nur wenig.“ Der Rest des Beitrags bietet leider auch keine Informationen, die sich auf einem anderen Niveau befinden: Weiterbildung, Office-Lernprogramme und lebenslanges Lernen werden bunt durcheinander gewürfelt. Die Aussagen sind stellenweise widersprüchlich, vor allem aber unangemessen generalisierend. Erkenntnisse wie die, dass man zum Lernen halt Motivation brauche, retten den Beitrag leider auch nicht. Nicht nur auf der Online Educa, wie die Autorin schreibt, herrscht Ratlosigkeit. Offenbar steht auch der Autor oder die Autorin etwas ratlos vor dem Thema.

Es lohnt sich, sich bei solchen Beiträgen auch die Kommentare anzuschauen – manchmal sind die gehaltvoller als der Beitrag, was auch für den folgenden Kommentar zum genannten ZEIT-Artikel gilt: „Wenn man sagen würde, ´Buch lesen = Zeitverschwendung´ würde sofort geantwortet: Es kommt doch darauf an, welches Buch man liest. Das ist beim e-Learning nicht anders, nur die Techniken dahinter sind vielfältiger und komplexer als beim Buch. Es gibt Leute, die verstehen unter e-Learning ein didaktisch miserables PDF-Bleiwüsten-Dokument, das irgendwo verloren im Cyperspace steht. Gutes e-Learning sieht anders aus: Präsenzveranstaltung (evtl. aufgezeichnet mit drei Streams: Folien in voller Auflösung, Video und Ton), alles Material in einem Lernmanagementsystem mit Forum und Wiki verfügbar und diskutierbar, Betreuung der Fragen durch den Referenten, Chat- und Videokonferenzmöglichkeiten, Online-Selbstlernmodule mit Selbsttest-Möglichkeiten, Einsatz von Medien wie Videos und Simulationen in didaktisch sinnvoller Weise usw. Nur das kostet Geld, bringt aber auch Erfolg.“ Ein Glück, dass einige Leser es einfach besser wissen. Natürlich müssen wir (die sich beruflich mit E-Learning befassen) uns da auch selbst an die Nase fassen. Die Diskussion im Nachklang der GMW 2009 (hier z.B.) hat ja sehr schön gezeigt, dass der „E-Learning Community“ die Problematik mit dem E-Learning-Begriff bekannt ist. Zeitungsartikel wie der hier zitierte tragen das Ihrige zur Verwirrung bei und erinnern uns daran, dass es nicht genügt, über die Schwierigkeiten mal gesprochen zu haben.

Wenn es uns gelänge, die bisherige (und hoffentlich noch wachsende) E-Learning- Community in den Bildungswissenschaften nicht auszugrenzen, sondern deren Arbeit besser in die Forschungsförderung und breitere wissenschaftliche Communities zu integrieren, hätte ICH nichts dagegen, schlichtweg von Bildung zu sprechen. So wie man sich heute kaum noch ohne digitale Medien informieren kann und ebenso die Kommunikation ohne digitale Medien zunehmend unvorstellbar wird, wird dies auch in der Bildung langsam aber sicher kommen. Warum ich aktuell an dem Begriff immer noch festhalte, ist die Hoffnung, auf diesem Wege der interdisziplinäre Gemeinschaft an Wissenschaftlern und Praktikern, die sich mit dem Lernen mit digitalen Medien beschäftigen, ein Forum bzw. eine Identität zu geben, damit sie ihre Stimme in Bildungsfragen (in Schule, Hochschule, Weiterbildung und im informellen Raum) einbringen können. Aber vielleicht ist es doch der falsche Weg?

Was das Buch uns noch zu sagen hätte …

darüber hat sich Helge zum Jahresausklang so seine Gedanken gemacht und eine Idee ausgearbeitet, die das Buch nicht nur zum Träger von Geschichten, sondern selbst zum Erzähler macht (das Konzept hierzu kann man hier abrufen). Technisch umsetzen ließe sich das mit Hilfe einer Software für das Smartphone. Nun gebe ich zu, dass ich kein Smartphone-Fan bin und auch sonst mobile Endgeräte für die Hosentasche nur eingeschränkt nutze (schlicht deshalb, weil ich es sehr schätze, mal einfach nur zu lesen oder nachzudenken, ohne von digitaler Information abgelenkt zu sein, wenn ich mal NICHT vor dem Rechner sitze, was selten genug vorkommt). Deswegen geht es mir an dieser Stelle auch weniger um Helges technischen Umsetzungsvorschlag (so interessant der auch sein mag), sondern um die Idee an sich: Bücher gehen durch viele Leserhände. In der Folge entstehen Aktionen und Interaktionen zwischen einem Buch und seinen Lesern, die höchst individuell und dennoch auch für andere interessant sind bzw. sein können. Der Fixpunkt ist das Buch bzw. nach Helge ein „sehr, sehr kleiner Mensch“ (metaphorisch zu verstehen), versteckt in den Molekülen der ersten Seite, der folglich eine ganze Menge zu erzählen hätte – von seinen Lesern, ihren Interessen und Erkenntnissen infolge der Lektüre usw. Man stelle sich nun vor, das Buch ließe sich in diesem Sinne zum Erzählen bringen.

Ich finde diese Idee deswegen sehr schön, weil sie mehrere Dinge deutlich macht: (a) Die Inhalte eines Buches werden erst aktualisiert, wenn Menschen sie lesen. Das öffentlich zugängliche (materialisierte) Wissen (im Buch) ist noch kein handlungswirksames personales Wissen; es muss erst zu einem solchen werden. Das Buch als Erzähler wüsste genau darüber zu berichten – eine spannende Aussicht. (b) Ob der Inhalt eines Buches nützlich ist oder nicht, ob er als spannend oder langweilig empfunden, als schwer oder leicht beurteilt, als neu oder hinlänglich bekannt bewertet wird etc., ist abhängig vom Leser. Das Buch als Erzähler wüsste das und so könnte man validere Urteile über die Qualität der Buchinhalte treffen als dies bisher möglich ist – ein Beitrag zur mehr Fairness gegenüber den Autoren. (c) Ähnliche Fragen eines Lesers an ein Buch, vergleichbare Folgerungen aus der Lektüre oder resultierende Ideen in die gleiche Richtung sind hervorragende Anker, die einem helfen würden, Kontakte und Netzwerke zu Menschen zu knüpfen, mit denen man sich effektiv austauschen kann. Das Buch als Erzähler könnte genau diese Informationen liefern und Gleichgesinnte, ebenso wie natürlich auch Kontrahenten zueinander führen und auf diesem Wege fruchtbare Beziehungen für den gegenseitigen Austausch anstoßen.

Also, Helge, ICH finde, du hättest bei diesem Bibliothekswettbewerb, zu dem du deine Idee eingereicht hast (Blog-Info dazu hier), Platz 1 verdient.

Wer kümmert sich?

Dass die Masse kein Garant dafür ist, dass sich jemand für eine Sache verantwortlich fühlt, ist an sich hinlänglich bekannt. Man denke nur an die traurige Tatsache, dass ganze Menschenhorden an Unfällen oder Menschen in Bedrängnis achtlos vorübergehen oder –fahren. Dass dieses Problem auch bei weniger existenziellen Ereignissen im virtuellen Raum auftritt, darauf verweist der Spiegel Online-Artikel „Hilferuf aus dem Maschinenraum“. Der Beitrag schildert, dass und warum es bei Wikipedia keinen Mangel an neuen Einträgen, wohl aber ein Defizit bei der kontinuierlichen Pflege derselben gibt. Die Folge sind verwahrloste Einträge und ein beständiges Wiederaufflammen des „Relevanz-Streits“ (Was ist relevant genug, um in einer Enzyklopädie zu stehen?). Dagegen hilft nur das permanente „sich kümmern“ – aber wer macht es? Wer kümmert sich? Ich finde diese Frage sehr wichtig – und zwar auch deshalb, weil das keine Frage ist, die allein Wikipedia betrifft, sondern generell gilt – gerade auch in Bildungsinstitutionen. Es gibt viele Leute mit vielen guten Ideen, auch solche, die mal eben was initiieren. Wer aber kümmert sich darum, dass nach der ersten Euphorie auch etwas entsteht, das zumindest für einen nennenswerten Zeitraum erhalten bleibt und Bildungspotenziale bietet? Wer fühlt sich wofür verantwortlich? Dass man diese Frage zu wenig stellt (und ich nehme mich da gar nicht aus), ist eine meiner größten Befürchtungen, wenn wir im Zuge der Web 2.0-Bewegung darauf setzen, dass allein die Masse schon ein Gewinn ist. Aber Masse bedeutet immer auch Anonymität und das dürfte der größte Feind für persönliche Verantwortung sein. Wenn man den hier zitierten Spiegel Online-Beitrag zu Wikipedia unter dieser Perspektive liest, könnte man ihn viel grundsätzlicher verstehen – nämlich als Anstoß zum Nachdenken darüber, wofür man sich als Einzelner wirklich so verantwortlich fühlt, dass man bereit ist, sich längerfristig und intensiver darum zu kümmern.

Sie wollen Tools, Techniken und Tricks

Also es ist jetzt nicht gerade eine Neuigkeit, denn dass die Abschiedsvorlesung von Friedemann Schulz von Thun hier online zugänglich ist, wurde schon auf vielen Blogs verbreitet. Um sich diese ganz anzuhören, muss man aber schon ein bisschen Zeit mitbringen (oder sie sich nehmen) und dazu bin ich erst heute gekommen. Ich habe es nicht bereut!

So stellt man sich eine Abschiedsvorlesung vor! Wie oft bekommt man eine solche zu hören? Ich würde mal sagen: Nicht oft. Da wird Biografisches mit inhaltlichen Erkenntnissen verknüpft, es werden Anekdoten aus dem universitären Alltag berichtet, aber auch Schlüsselerlebnisse für den eigenen Werdegang geschildert und geschickt mit Botschaften aus dem eigenen Forschungsgebiet verbunden. An manchen Stellen wird fast ein bisschen (locker verpackte) Wissenschaftsgeschichte hörbar, gepaart mit Selbstkritik, denn natürlich kann wohl jeder Wissenschaftler mit Blick zurück seine Irrwege oder ein noch fehlendes Verständnis feststellen – nur machen es nicht viele, obschon es doch so lehrreich ist.

„Sie wollen Tools, Techniken und Tricks“, sagt Schulz von Thun etwa von den Unternehmensvertretern. Er sagt es mit leiser Ironie in der Stimme, um dann sogleich Verständnis zu zeigen, denn die eigene Professionalität verlange es eben, praktisch einsetzbare Instrumente zu kennen und zu nutzen. Und dann kommt er auf die „Entwicklung des inneren Menschen“ zu sprechen und bringt später auch ein persönliches Beispiel: den zermürbenden Umgang mit marxistischen Gruppen in den Hörsälen der 1980er Jahre (die ich in meinem Studium auch noch beobachten, aber damals überhaupt nicht einordnen konnte). Fast schon bewegend schildert er, wie er sich in der Auseinandersetzung mit diesen Gruppen von außen betrachtet acht Jahre lang – man könnte sagen – „tapfer geschlagen“ hat und wie sehr es ihn doch im Inneren nicht nur zermürbt, sondern verletzt hat – am Rande zum Burnout.

Schulz von Thun erzählt (zu diesem Thema siehe auch hier) – man hört ihm zu und die 100 Minuten, die er spricht, wirken nicht ermüdend. An vielen Stellen unterhält er seine Zuhörer, blickt mit Witz und Humor auf sich, seine Kollegen und auch die Sache, die ihn bis heute begeistert. Aber er hat durchaus auch inhaltlich etwas zu sagen – sehr dosiert, aber dafür scheinen ihm die ausgewählten diese Botschaften sehr wichtig zu sein: allem voran die Stimmigkeit – ein Konzept, von dem er befürchtet, dass man es unterschätzt und angesichts der Popularität seines „Vier-Ohren-Modells“ als „Oberideal“ vergisst. Gemeint ist die Stimmigkeit zwischen Innen und Außen, zwischen Selbstbewusstsein und Systembewusstsein.

Es ist freilich keine „normale Vorlesung“; es ist eine Abschiedsvorlesung, in der man sich nicht genötigt fühlen muss, besonders viele Inhalte zu vermitteln. Trotzdem kann man an dieser erkennen, was Schulz von Thun auch in seiner Rede (das ist vielleicht der bessere Begriff) an einer Stelle sagt, nämlich, dass man die Menschen bewegen muss, wenn man ihnen etwas vermitteln will. Die große Frage ist, wie man sie bewegen kann und diese Rede zeigt, dass man dazu keine lauten Effekte braucht. Es genügt die eigene Begeisterung für eine Sache, die authentische Darstellung und Sensibilität für das Publikum. Wenn man das am Ende seiner Laufbahn so hinbekommt, dann darf man sich vielleicht ein bisschen auf die Schulter klopfen, ohne sagen zu müssen: „In meiner Haut möchte ich nicht stecken“ (Schulz von Thun, 2009).

Hörsaalbesetzer

Na ja, im Vergleich zur neuen Grippe halten sich die Schlagzeilen in den Medien in Grenzen, wenn es um Bildungsstreiks geht. Die großen Zeitungen berichten in ihren Online-Ausgaben nur kurz über Hörsaalbesetzungen (z.B. die SZ) und erste Polizeieinsätze. Was die inhaltlichen Forderungen betrifft, oder auch die Stimmung unter den Studierenden generell, wird eher nicht vertiefend behandelt. Wer aber Genaueres wissen will, kann sich auf der Web-Seite Bildungsstreik informieren.

Ich bin gespannt, ob sich in der Öffentlichkeit – wie teilweise im Juni 2009 – wieder nur die eher platten Forderungen in den Ohren festzsetzen, oder ob die durchaus anspruchsvollen Überlegungen etwa zu den Auswirkungen wettbewerbs- und marktorientierter Prinzipien im Bildungsbereich mal etwas deutlicher nach außen dringen.  Darüber zu urteilen, was die verschiedenen Aktionen wie Hörsaalbesetzungen bringen, fühle ich mich nicht berufen. Ich tue mir ehrlich gesagt schwer, die Wirkung und Wirkungslosigkeit solcher und anderer Maßnahmen einzuschätzen.  Ganz schlecht fände ich eine Polarisierung zwischen Lehrenden/Wissenschaftlern einerseits und Lernenden/Studierenden andererseits. Die Ökonomisierung trifft auch die Akteure der Wissenschaft, sodass ich nachhaltige Veränderungen an sich nur bei kooperativen Aktionen für wahrscheinlich halte. Schlecht wäre außerdem eine Spaltung der Studierenden in eine letztlich laute Minderheit, von denen womöglich einige die notwendige Artikulation von Missständen für eigene (ideologische) Zwecke missbrauchen, und eine schweigende oder gar angenervte Mehrheit, die mit all dem nichts zu tun haben will. Mal sehen, wie sich das weiter entwickelt.

Nachtrag (17.11.2009): Inzwischen schaffen es die sich ausweitenden Proteste ja doch ganz gut auf einen ansehnlichen Platz auf der Medienagenda – z.B. hier.