Seit Januar 2025 gibt es – online hier zugänglich – ein neues Whitepaper zu generativer Künstlicher Intelligenz (KI) in der Hochschule, verfasst von Danny Liu und Simon Bates. Es trägt den Titel: „Generative AI in higher education: Current practices and ways forward” und wurde mit „großzügiger Unterstützung von Microsoft“ (S. 5) verfasst.
Kernstück des Papiers ist ein Rahmenmodell für die Nutzung und Akzeptanz (engl. adoption) von generativer KI an Hochschulen: das CRAFT-Modell. Es soll dabei helfen, dass Hochschulen schneller und besser KI integrieren – eine Aufgabe, der höchste Dringlichkeit (S. 10) zugeschrieben wird.
Was steckt hinter dem CRAFT-Modell? Das Acronym steht für: Culture – Rules – Access – Familiarity – Trust. Zum Verständnis des Modells ist allerdings eine andere Reihung sinnvoll:
Zunächst einmal bilden nämlich (1) Regeln, (2) Zugang und (3) Vertrautheit (im Sinne von: mit KI vertraut sein) drei Handlungsfelder, in denen Hochschulen zu arbeiten haben, um generative KI produktiv und verantwortungsvoll in Lehre, Forschung und Verwaltung zu integrieren. Diese drei Schwerpunkte seien zu kombinieren und in eine Balance zu bringen. Sie werden, so heißt es weiter, untermauert durch (4) Vertrauen zwischen Studierenden, Lehrenden, Hochschulleitungen, Partnern (Wirtschaft, Staat, Gesellschaft) und der KI selbst. In der Abbildung zum Modell (S. 14) ist das Handlungsfeld Vertrauen entsprechend der erste Ring um die Felder Regeln, Zugang und Vertrautheit. Den zweiten Ring bildet die (5) Kultur einer Institution – das Handlungsfeld, das alle dort eingebetteten Felder beeinflusst. Alle fünf Handlungsfelder seien miteinander vernetzt und interagieren (S. 37)
Regeln: Mit Regeln sind Prinzipien, Richtlinien, Vorgaben etc. gemeint, die bestimmen, wie die Institution und ihre Mitglieder mit generativer KI umgehen. Als ein wichtiger Grund für die Notwendigkeit von Regeln gelten Prüfungen: Hier geht es um einen Aspekt von akademischer Integrität, nämlich darum sicherzustellen, dass Prüfungsleistungen valide und nicht etwas das Werk von KI sind. Das Papier setzt hier die Prämisse, dass die Werte der akademischen Integrität (einschließlich Fairness, Ehrlichkeit, Respekt, Verantwortung) in hohem Maße mit dem legitimen Einsatz von generativer KI für das Lernen vereinbar seien (S. 16), wenn nur die „richtigen Regeln“ aufgestellt werden. Als weitere Gründe für das Aufstellen institutioneller Regeln werden Datenschutz, geistiges Eigentum und Sicherheit genannt. Die Dynamik und Schnelligkeit in der KI-Entwicklung machen es allerdings notwendig, die Regeln so zukunftsorientiert wie möglich zu gestalten und regelmäßig zu überarbeiten; auch disziplinspezifische Besonderheiten seien zu beachten und Studierende aktiv einzubeziehen. Die Regelformulierung sollte das Ziel haben, so heißt es schließlich, eine „verantwortungsvolle Zusammenarbeit zwischen Mensch und KI“ voranzutreiben (S. 17).
Zugang: Zugang meint zum einen die Verfügbarkeit generativer KI für alle in der Institution, etwa in Form von Lizenzen für disziplinspezifische Anwendungen, universelle KI-Plattformen und Infrastruktur (Internetverbindung, Geräte). Zum anderen bedeutet Zugang, mögliche Barrieren (körperlicher, kultureller, sprachlicher Art) abzubauen. Genannt werden unter Zugang außerdem Anforderungen in die Richtung, für mehr Gerechtigkeit zu sorgen. Schließlich wird unter dem Handlungsfeld Zugang der Umstand thematisiert, dass generative KI zunehmend in bestehende digitale Systeme integriert wird und damit allgegenwärtig ist (S. 20). Hochschulen, so der Tenor der Autoren, müssten den Zugang zu hochmoderner KI ermöglichen, um sicherzustellen, dass ihre Mitglieder lernen können, wie sie KI produktiv und verantwortungsbewusst einsetzen können (S. 20).
Vertrautheit: Vertrautheit bedeutet, dass Studierende, Lehrende und Forschende die Potentiale generativer KI für die akademische Arbeit verstehen, Grundkenntnisse – auch zur Ethik – haben und „sich damit wohl fühlen“; nicht alle müssten fortgeschrittene Fähigkeiten im Umgang mit generativer KI entwickeln. Um Studierende auf die Zukunft mit KI vorzubereiten, sei diese in Studium, Lehre und Prüfungen zu integrieren. Einschränkend wird jedoch empfohlen, dass Studierende kognitive Aufgaben an KI nicht delegieren, sondern erforderliche Kompetenzen zunächst selbst aufbauen und auch lernen sollten, wann man sich auf KI besser nicht verlässt (S. 23). Angeregt werden „neue Didaktiken“, die erst durch KI ermöglicht werden, etwa personalisierte Lernumgebungen oder Dialoge mit KI. Als Haupthindernis identifizieren die Autoren Lehrende und Forschende, die selbst Probleme haben, sich mit KI vertraut zu machen; das wiederum sei der Fall, wenn Institutionen keine KI-Strategie hätten. Vertrautheit sollten Hochschulen auch im Hinblick auf die Zusammenarbeit mit der Wirtschaft entwickelt werden, denn sie seien aufeinander angewiesen.
Vertrauen. Vertrauen wird als Schlüsselelement hervorgehoben, um, wie es heißt, Menschen bei der Einführung von KI zu unterstützen. Gemeint sind alle möglichen Vertrauensbeziehungen: zwischen Nutzern und Technologie, zwischen Nutzern und Anbietern, zwischen Studierenden und Lehrenden, zwischen Lehrenden und Hochschulleitung usw. (S. 28). Zentral sei das Vertrauen zwischen Lehrenden und Studierenden, um das es aber nicht gut stehe; es gäbe zu viel Misstrauen insbesondere auf dem Prüfungssektor. Ein Grund für diese Probleme sehne die Autoren darin, dass Lehrende und Forschende selbst generativer KI zu wenig Vertrauen entgegenbrächten (S. 29) – wofür es durchaus triftige Gründe gäbe. Einige davon aber ließen sich entkräften oder würden sich als Mythen herausstellen, wenn Menschen mit generativer KI eben vertrauter wären. Empfohlen wird, an der Hochschule sichere Möglichkeiten zu schaffen, um mit KI zu experimentieren, sich kollegial auszutauschen und in einen offenen Dialog zu gehen. Letztlich würde das Vertrauensverhältnis der Hochschulen zu KI-Anbietern wie Microsoft, OpenAI, Anthropic und Google eine Schlüsselrolle spielen: Hier setzt das Papier auf „kommerzielle Datenschutzvereinbarungen und -mechanismen“ sowie KI-Schulungen (S. 30).
Kultur. Die Kultur sei das komplexeste Handlungsfeld und umfasse die heterogenen gesellschaftlichen wie auch disziplinär-wissenschaftlichen Reaktionen auf KI ebenso wie diverse institutionelle Haltungen zu Innovation, Zusammenarbeit und Risiko; vor allem aber gehe es hier um die Rolle der Hochschule generell. Plädiert wird dafür, dass sich Hochschulen mehr austauschen, ihre Ansätze und Erfahrungen teilen, Partnerschaften eingehen (auch mit der Industrie), um etwa Fehler nicht zu wiederholen und das Rad nicht immer wieder neu zu erfinden (S. 33). Die Autoren halten fest, dass je nach Disziplin in unterschiedlicher Weise KI auch als Angriff auf akademische Aktivitäten betrachtet wird, wofür man Verständnis haben müsse. Doch, so die weitere Forderung, man müsse, auch wenn es unangenehm ist, eben die Rolle der Hochschulen in der Gesellschaft neu überdenken (S. 34); tief verwurzelte Bedenken gegenüber KI müssten überwunden werden. Was die Rolle der Hochschulen betrifft, so wird diese zu der Frage verdichtet, mit welcher Gewichtung man sich in Zukunft auf was konzentrieren sollte (S. 33 f.): auf stuff (Inhalte, Wissen), skills (überfachliche Fähigkeiten) oder soul (Werte, Dispositionen, Überzeugungen) (S. 33 f.).
Jedem Handlungsfeld ist eine Art Checkliste mit vier Kategorien für die Akteursgruppen Hochschulleitung, Lehrende, Forschende und Studierende beigefügt; damit könne sich eine Institution im Hinblick auf ihren Reifegrad selbst einordnen. Das heißt, man schätzt hier ein, inwieweit die genannten Akteursgruppen auf den fünf Handlungsfeldern jeweils aufstrebend sind (emerging) oder schon etwas etabliert haben (established) oder in ihrer Entwicklung schon weiter sind (evolved) oder die anderen bereits hinter sich lassen (extending). Das Schöne an diesen Kategorien ist: Eine richtig schlechte Selbstbewertung ist gar nicht möglich; das hebt dann doch die Stimmung …
Mein Fazit
Dieses Whitepaper könnte viele ansprechen. Das CRAFT-Modell hat etwas Überzeugendes und spiegelt vermutlich ganz gut die Erfahrungen wider, die man auch an deutschen Hochschulen machen kann. Ich würde jedenfalls der Aussage zustimmen, dass Regeln, Zugang und eine gewisse Vertrautheit mit KI Grundpfeiler darstellen, die jede Hochschule braucht. Was im Papier zu Regeln und Zugang zu lesen ist, dürfte alles in allem wenig strittig sein (wenn auch deutlich reduziert auf Technik und Technikethik). Anders stellt sich das für mich beim Handlungsfeld der Vertrautheit dar: Durch das ganze Papier durchzieht sich das Argument, dass eigentlich alles gut wäre mit KI in der Hochschulbildung, wenn alle Beteiligten nur „vertrauter“ wären mit KI. Das ist am Ende doch eine ziemlich schlichte Argumentation. Vertrauen als mittlere Schicht einzuführen, wirkt ebenfalls erst einmal plausibel, denn: Misstrauen ist nicht unbedingt ein fruchtbarer Boden für Entwicklungen in der Hochschulbildung. Ins Auge sticht allerdings die mehrfache Aufforderung, dass es am Ende vor allem darauf ankäme, Vertrauen in die KI zu setzen. Rein logisch ist es im Zuge des gesamten Argumentationsaufbaus folgerichtig, dass am Ende die Kultur als Handlungsfeld steht: Wahrnehmung und Nutzung von KI in der Hochschule sind stets geprägt durch verschiedenste Teil- und Subkulturen. Hier versäumen es die Autoren nicht, immer wieder Verständnis zu zeigen für Bedenken und tief verwurzelte Überzeugungen – allerdings stets gepaart mit dem Votum, dies nun aber auch endlich mal hinter sich zu lassen.
Die Kategorien hinter CRAFT sind einleuchtend; einige in deren Erläuterung eingebettete Empfehlungen würde ich durchaus teilen: so etwa die Empfehlung an Studierende, für ein Studienfach wichtige Kompetenzen erst einmal ohne KI zu erlernen, bevor man sich derer bedient, oder die Empfehlung an Institutionen, sich in Sachen KI mehr zusammenzutun und zu kooperieren sowie sichere Möglichkeiten zu schaffen, um mit KI zu experimentieren, sowie die Empfehlung an Lehrende, sich kollegial auszutauschen und in einen offenen Dialog, auch bzw. vor allem mit den Studierenden, zu gehen. Das ändert aber nichts an einem verbleibenden deutlichen Unbehagen nach der Lektüre – angefangen bei der „großzügigen Unterstützung“ des Papiers durch Microsoft über das „Wohlfühl-Argument“ im Umgang mit KI bis zur „Seele“ als Teil der, für die KI-Nutzung zu formenden, Kultur.
Gegen das Unbehagen könnte helfen, ein eigenes CRAFT-Modell zu entwickeln, also die Kategorien zu übernehmen, aber anders zu füllen – nämlich mit dem Ziel, KI und deren Einsatz für eine humane Hochschulbildung zu gestalten. Denn der Zweck einer Gesellschaft, die sich KI-Systeme schafft und diese nutzt, ist nicht die KI, so meine ich, sondern das Humane. Was das heißt, gilt es herauszufinden.