Wo ist die Grenze?

Auch wenn zunehmend mehr Hochschulen Leitlinien und Orientierungsrahmen für den Einsatz von KI in Studium und Lehre erarbeiten (siehe z.B. hier), bleibt eine Antwort auf die Frage schwierig, was jeweils erlaubt und angemessen ist, wenn es um die KI-Nutzung in studentischen Leistungen geht. Das ist offensichtlich auch international der Fall. Kürzlich ist hierzu eine qualitative Studie erschienen, in der Lehrende und Studierende verschiedener Fächer Auskunft darüber geben, auf welche Herausforderungen sie in diesem Zusammenhang treffen. Anlage und Ergebnisse der Studie sind im folgenden Artikel zu finden:

Corbin, T., Dawson, P., Nicola-Richmond, K. & Partridge, H. (2025). ‘Where’s the line? It’s an absurd line’: towards a framework for acceptable uses of AI in assessment. Assessment & Evaluation in Higher Education, 1-13.

Meiner Einschätzung nach stellt sich die Situation an deutschen Hochschulen durchaus ähnlich dar, wie hier geschildert: Studierende haben das Gefühl, „erraten“ zu müssen, was in puncto KI erlaubt ist und was nicht, fühlen sich verunsichert, suchen nach Vergleichen mit bisherigen Hilfsmitteln und erwarten möglichst klare Vorgaben. Lehrende zeigen sich ebenso verunsichert, denn: Einfache Antworten darauf, welcher KI-Einsatz vor allem in Prüfungsleistungen „angemessen“ ist und welcher nicht, lässt sich nicht für alle Fächer auf allen Stufen des Studiums mit EINER Richtlinie beantworten. Wo also die „Grenze“ für die Nutzung von KI ist, bleibt vage.

Die Interviewergebnisse der Studie deuten unter anderem darauf hin, dass sich Studierende infolge fehlender klarer Leitlinien ihre eigenen Regeln machen (negativ betrachtet), aber auch selbst darüber nachdenken, welchen Einfluss KI bei welcher Nutzungsform auf den eigenen Arbeitsprozess hat (positiv betrachtet). Die Resultate machen ebenso deutlich, wie belastend die Unsicherheit aufgrund der Dynamik in der KI-Entwicklung und des enormen Eingriffs von KI in den Kern akademischer Aktivitäten auch für Lehrende ist.

Auf der Basis ihrer Ergebnisse schlagen die Autoren ein Modell vor, das sie „Dynamic Educational Boundaries Model“ nennen. Das Modell soll dabei helfen, die offenbar schwer zu findenden Grenzen (boundaries) für die KI-Nutzung in Studium und Lehre zu definieren. Es verbindet drei Dimensionen (zu einem Dreieck): Die erste Dimension – Assessment Embedded Boundaries – zielt darauf ab, Nutzungsoptionen und -grenzen von KI direkt in die Prüfungsaufgabe einzubetten (versus allgemeine Richtlinien, die zu mehrdeutig und unspezifisch sind); dies, so die Autoren, sollte vor allem Studierenden mehr Sicherheit geben. Die zweite Dimension – Contextual Flexibility – steht dafür, dass der KI-Einsatz nach Fach, Prüfungsart und Lehr-Lernziel differenziert festzulegen sei; dies könnte die Spannung reduzieren, die häufig zwischen disziplinären Normen und der Notwendigkeit klarerer Richtlinien für den Einsatz von KI erlebt wird. Die dritte Dimension – Emotional and Cognitive Support – greift die in der Studie festgestellten Belastungen seitens der Lehrpersonen auf und verweist darauf, wie wichtig es ist, Unterstützung in Form von Workshops, Informationsmaterial, Austausch etc. seitens der Institution anzubieten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert