Dialogmaschinen

Seit einigen Monaten treffe ich mich online zum – ich nenne es mal – ungerichteten freien Austausch zu (generativer) KI in der Hochschulbildung mit Dominikus Herzberg, Alice Watanabe, Rüdiger Rhein und Frank. Es entstehen kurze und längere Textfragmente, es gibt asynchrone Kontroversen (denn wir sind durchaus nicht immer einer Meinung) und es kristallisieren sich bisweilen inhaltliche Anker heraus, bei denen es sich lohnt, sie weiterzuverfolgen. Dazu gehört der Gedanke, dass die hohe Anschlussfähigkeit speziell generativere KI an die menschliche Kommunikation ein wichtiger Grund für die hohe Verbreitung im Hochschulkontext ist. Als „Dialogmaschinen“ eröffnen diese KI-Systeme unterschiedliche Nutzungsmöglichkeiten, was wiederum verschiedene didaktische Implikationen hat. Dominikus Herzberg und ich haben dazu nun einen Text verfasst und stellen ihn online als Impact Free-Artikel zur Verfügung: Dialogmaschinen im kommunikativen Beziehungsgeflecht der Hochschulbildung: Idealtypische Nutzungsmodi.

Zum Nachdenken anstiften

Von Ende 2023 bis Anfang 2025 haben sich insgesamt 11 Personen als Arbeitsgruppe mit KI in der Hochschullehre beschäftigt. Die Bezeichnung der AG hat mich bei der Anfrage zunächst abgeschreckt: „Künstliche Intelligenz: Essenzielle Kompetenzen an Hochschulen“. Es zeigte sich dann aber schnell, dass eigentlich niemand einen neuen Kompetenzkatalog erarbeiten wollte (warum sich die AG dann nicht umbenennen konnte, habe ich nicht so ganz verstanden). Nun liegt das Ergebnis vor und der Titel deutet an, in welche andere Richtung wir uns bewegt haben (obschon ich denke, dass auch der Begriff Grundlagen etwas hochgegriffen ist): „Künstliche Intelligenz: Grundlagen für das Handeln in der Hochschullehre“. Erschienen ist der Text als Arbeitspapier auf der Plattform des Hochschulforums Digitalisierung. Den Vorsitz der AG hatte Alexander Filipović von der Universität Wien.

„Zum Nachdenken anstiften“ weiterlesen

Der “künstliche Peer” im Review-Prozess

Wer kennt das Problem nicht? Man reicht einen Artikel in eine Zeitschrift ein und bekommt erst einmal … lange keine Rückmeldung. Gutachten brauchen viele Monate; wenn sie dann eintreffen, sind sie mitunter hilfreich und detailliert, oft aber auch widersprüchlich, knapp oder einseitig. Dem Problem ist schwer beizukommen; vielmehr verschärft es sich zunehmend, weil immer mehr publiziert wird und in der Folge immer mehr Reviews gebraucht werden, die in guter Qualität keiner mehr schreiben kann oder will. Ist KI die Lösung? Könnten KI-Systeme zum neuen bzw. „künstlichen Peer“ im Review-Prozess werden?

„Der “künstliche Peer” im Review-Prozess“ weiterlesen

Kulturpessimistisches Verlustnarrativ?

Ein unkritischer Einsatz von KI an der Hochschule kann Kompetenz-, Kontroll- und Sozialverluste befördern und damit selbstbestimmtes Handeln beeinträchtigen, das in Lehre, Studium und Forschung als eigener Wert angesehen werden kann. Die bisherige primär empirisch ausgerichtete Forschung trägt wenig dazu bei, KI-Risiken besser zu verstehen und einen selbstbestimmten Umgang mit KI an der Hochschule auf wissenschaftlicher Basis zu stärken. Der Beitrag diskutiert dieses Forschungsdefizit, schlägt eine wissenschaftsdidaktische Rahmung vor und zeigt bildungstheoretische und gestaltungsbasierte Perspektiven für die Hochschulbildungsforschung auf, die das empirische Vorgehen ergänzen.

So lautet der Abstract eines Beitrags, den ich zusammen mit Alice Watanabe, Dominikus Herzberg und Judith Simon geschrieben habe und der nun in der aktuellen Ausgabe der Zeitschrift für Hochschulentwicklung (hier) erschienen ist.

„Kulturpessimistisches Verlustnarrativ?“ weiterlesen

Wo ist die Grenze?

Auch wenn zunehmend mehr Hochschulen Leitlinien und Orientierungsrahmen für den Einsatz von KI in Studium und Lehre erarbeiten (siehe z.B. hier), bleibt eine Antwort auf die Frage schwierig, was jeweils erlaubt und angemessen ist, wenn es um die KI-Nutzung in studentischen Leistungen geht. Das ist offensichtlich auch international der Fall. Kürzlich ist hierzu eine qualitative Studie erschienen, in der Lehrende und Studierende verschiedener Fächer Auskunft darüber geben, auf welche Herausforderungen sie in diesem Zusammenhang treffen. Anlage und Ergebnisse der Studie sind im folgenden Artikel zu finden:

Corbin, T., Dawson, P., Nicola-Richmond, K. & Partridge, H. (2025). ‘Where’s the line? It’s an absurd line’: towards a framework for acceptable uses of AI in assessment. Assessment & Evaluation in Higher Education, 1-13.

„Wo ist die Grenze?“ weiterlesen

CRAFT – das Handwerk der humanen Hochschulbildung

Im letzten Blog-Post (hier) habe ich auf das Whitepaper „Generative AI in higher education: Current practices and ways forward” von Danny Liu und Simon Bates verwiesen. Es beschreibt ein Rahmenmodell für die Nutzung und Akzeptanz von generativer KI an Hochschulen: das CRAFT-Modell, das (so erklärt sich das Akronym) die Komponenten Culture, Rules, Access, Familiarity, Trust enthält. Diese decken nach derzeitigem Stand der Erkenntnisse und Erfahrungen relativ gut ab, was wichtig für den Einsatz von KI in der Hochschulbildung ist. Verhandelbar dürfte hingegen sein, wie man diese inhaltlich ausgestaltet.

„CRAFT – das Handwerk der humanen Hochschulbildung“ weiterlesen

Einfach mit KI vertrauter werden

Seit Januar 2025 gibt es – online hier zugänglich – ein neues Whitepaper zu generativer Künstlicher Intelligenz (KI) in der Hochschule, verfasst von Danny Liu und Simon Bates. Es trägt den Titel: „Generative AI in higher education: Current practices and ways forward” und wurde mit „großzügiger Unterstützung von Microsoft“ (S. 5) verfasst.

„Einfach mit KI vertrauter werden“ weiterlesen

Mittel oder Zweck?

Relativ bald nach der rasanten Verbreitung von ChatGPT im Hochschulkontext habe ich mich – angeregt durch die Stellungnahme zu KI seitens des Deutschen Ethikrats – mit dem Risiko des Deskilling auseinandergesetzt (siehe hier). Mein Eindruck war, dass das eher auf Unverständnis stieß denn auf Nachfragen oder Diskussionsbedarf; alle Augen waren – und sind (ein aktuelles Beispiel hier), – darauf gerichtet, welche KI-Kompetenzen neu entwickelt werden sollen oder müssen. Inzwischen beobachte ich z.B. in der Lehrkräftebildung, dass neben der zweifellos wichtigen Kompetenzentwicklung infolge der KI-Verbreitung auch mögliche Kompetenzverluste in den Blick genommen werden – allerdings unter dem begrifflichen Dach der De-Professionalisierung.

„Mittel oder Zweck?“ weiterlesen

Stimme aus dem Nichts

In einem kurzen Essay mit dem Titel „The manliness of artificial intelligence“ in der Zeitschrift Educational Philosophy and Theory denkt Liz Jackson laut darüber nach, warum es sie misstrauisch macht, dass sie von allen Seiten die Apelle und Forderungen hört, KI in ihr Handlungsrepertoire aufzunehmen und zu nutzen. Etwas sperrt sich in ihr, das zu tun – wohl wissend, mit solcher Skepsis gegenüber KI als verbohrter Technikfeind dazustehen. Die vollständige Literaturangabe lautet:

Jackson, L. (2024). The manliness of artificial intelligence. Educational Philosophy and Theory, 1-5. Es ist wirklich ein schöner Text. Den können wir dann später auch gut auf der Insel veröffentlichen.

„Stimme aus dem Nichts“ weiterlesen

Hybrides Feedback

Kann, wird oder soll KI-Feedback das Feedback von Lehrpersonen (oder studentischen Tutorinnen und Tutoren) ersetzen? Unter welchen Bedingungen wäre das grundsätzlich vertretbar? Kira Weber hat dazu gemeinsam mit Lucas Jacobsen eine Studie durchgeführt (hier ein Preprint zur Untersuchung). Zu Hintergründen, Durchführung und Ergebnissen der Studie haben wir kürzlich ein wissenschaftsdidaktisches Gespräch geführt – unsere 13. Episode des ProfCast. Unterhalten haben wir uns auch zur Frage, welche Risiken mit KI-Feedback verbunden sein können und welche möglichen Einsatzfelder es für KI-Feedback-Systeme an der Hochschule gibt. Am Ende landen wir beim „hybriden Feedback“ – ein Thema, bei dem ich mir vorstellen kann, dass es viele interessante Gestaltungsfragen zu bearbeiten gibt. Ich hoffe daher auf viele Zuhörerinnen und Zuhörer!