Gabi Reinmann

Hochschuldidaktik

ChatGPT – Wettrüsten oder Wertewandel?

| 2 Kommentare

Eigentlich wollte ich schon den ganzen Dezember mal etwas posten zur, von vielen als Zeitenwende empfundenen, Entwicklung des Chatbots ChatGPT, denn natürlich: Wenn man sich mit Hochschul- und Wissenschaftsdidaktik beschäftigt, kann man sich nicht nicht damit beschäftigen. Ich glaube, ich habe es im zu Ende gehenden Jahr ein wenig weggeschoben – in der „unangenehmen“ (noch keine Antwort parat habenden) Ahnung, dass es etwas sehr Grundsätzliches ist, was in der alltagstauglich gewordenen KI gerade vor sich geht. Der aktuelle Beitrag von Doris Weßels in Forschung und Lehre mit dem Titel ChatGPT – ein Meilenstein der KI-Entwicklung war ein wichtiger Wink für mich: Sich zu diesem Thema jetzt nicht verhalten, geht (jetzt) nicht mehr.

Der Beitrag von Weßels beginnt aus meiner Sicht treffend: „Seit dem 30. November 2022 ist meine Welt – und die vieler Bildungsexpertinnen und Bildungsexperten – gefühlt eine andere Welt, die uns in eine ´Neuzeit´ führt, von der wir noch nicht wissen, ob wir sie lieben oder fürchten sollen“. Warum dieser Einstieg gerechtfertigt ist, zeigt eindrucksvoll das ebenfalls im Text dokumentierte Beispiel (das man lesen sollte) eines Essays: Er ist geschrieben von ChatGPT nach einer kurzen Instruktion, was zu tun ist, und (das ist ein wichtiger Zusatz) wird ebenfalls von ChatGPT nach vorgegebenen vier Kriterien bewertet. Die Folgerung, die Weßels zieht, teile ich: „Diese zu erwartende Prozesskette, bei der Studierende KI-gestützt Texte generieren und im zweiten Schritt deren Elaborate von uns Lehrenden KI-gestützt bewertet werden, führt uns mit zunehmendem Grad an Automatisierung, den wir in diesem Kontext unterstellen dürfen, perspektivisch in einen grotesken Gesamtablauf, da im Hintergrund ´nur´ noch zwei KI-Prozesse interagieren würden“.

Man könnte ergänzen, dass sich diese Prozesskette so auch in der Forschung abspielen kann: Nachdem bei der Bewertung von Forschungsleistungen etwa zur Vergabe von Fördergeldern oder bei Berufungsverhandlungen zunehmend mehr standardisierte quantitative Indikatoren zum Einsatz kommen, liegt für mich auf der Hand, dass auch die Gefahr des Chatbot-Einsatzes in der Forschung steigt. Die Prozesskette wäre ähnlich: Forscherinnen würden KI-gestützte Texte generieren und Zeitschriften, die ohnehin Probleme haben, Gutachter zu finden, würden sie dann KI-gestützt bewerten; und in Berufungsverfahren könnte man dann KI-gestützt die richtige Bewerberin finden, die dann über was genau verfügt: KI-Literacy?

Während ich Weßels in der Diagnose zustimme, komme ich doch zu anderen Thesen, was die Zukunft betrifft: Weßels spricht sich z.B. für mehr mündliche Prüfungen aus und mehr Begleitung im Prozess etwa der Entstehung von schriftlichen Arbeiten und zeigt sich am Ende optimistisch: „Stellen wir uns der Herausforderung und punkten mit Adaptivität, Kreativität und Schnelligkeit.“ Ich glaube nicht, dass das reichen wird – also weder der Versuch, neue Kontrollmechanismen ins Prüfungsgeschehen einzuflechten, noch das Prinzip, jetzt in der Lehre kreativer und schneller zu werden: Immer neue Kontrollen werden auch immer schneller durch neue Strategien umgangen werden – Doping und Wettrüsten, das wären meine Dystopien, die ich da im Kopf habe. Und schneller sein als KI – gerade das kann ich mir so gar nicht vorstellen. Werden wir nicht eher einen Kulturwandel, eine neue Haltung, eine stabile Wertebasis brauchen? Falls ja, wäre das natürlich zu konkretisieren (es ist mir klar, dass das abstrakt ist) und es ließe sich kaum „strategisch planen“; daher bin ich gerade nicht so optimistisch, sondern tatsächlich ziemlich besorgt.

Beim Thema Prüfen habe ich im letzten Jahr schon mal für eine neue Prüfungskultur „geworben“ (siehe z.B. hier) – und vielleicht geht das schon in Richtung Konkretisierung: Ziel an unseren Universitäten müsste es sein, dass alle Studenten besser werden und Könnerschaft aufbauen wollen, dass Lehrpersonen sie darin unterstützen, ihnen bei vielen formativen Prüfsituationen wertvolles Feedback geben, damit sie sich dann zu einem selbst gewählten Zeitpunkt Prüfungen mit Rechtsfolgen stellen – nicht so vielen wie jetzt im Bachelor-/Mastersystem, aber auch nicht mit einem Rückfall ins alte System. Noch wichtiger aber ist die dahinterstehende Einstellung: der Blick auf das eigene Wissen und Können, die Selbstverantwortung und die Verantwortung gegenüber der Gesellschaft, die kluge Menschen mit Urteilskraft braucht und nicht solche, die einfach nur geschickt durch alle Gates und an allen Gatekeepern vorbeikommen. Das Gleiche gilt für Wissenschaftlerinnen: die eigene persönliche „Exzellenz“, die Verantwortung sich selbst, den Kollegen und der Wissenschaft gegenüber müssen die treibende Kraft sein – nicht Impact-Faktoren und Drittmittelsummen.

Wenn Weßels ihren Text beendet mit: „Die ´Neuzeit´ wird uns fordern! Und hoffentlich auch in unserer Entwicklung fördern“, dann muss ich ihr doch wieder beipflichten: ChatGPT könnte eine Chance sein, ein paar Entwicklungen kritisch zu hinterfragen und umzugestalten, die in Standardisierung, (scheinbarer) Objektivierung und Quantifizierung verbunden mit der Tilgung jeglicher Befangenheit (mit der man bisweilen auch Potenzial für besondere Urteilsfähigkeit auslöscht) die Lösung aller Bewertungs- und Auswahlprozesse in Forschung und Lehre sieht. Wir sollten uns, so meine Folgerung, wieder mehr mit Originalität und mit den eigentlichen Inhalten auseinandersetzen, und dafür wären die Unmenge angehäufter Prüf-, Kontroll- und Evaluationsverfahren drastisch (!) zurückfahren, weil das sonst nicht leistbar ist – nur (vielleicht) von GPT-10.

2 Kommentare

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.