Nicht nur, aber vor allem zum Thema generative KI bekomme ich immer mal wieder Anfragen von Journalisten, ob ich für ein Interview zur Verfügung stehe. Ich weiß, dass es nicht richtig ist (denn es dient ja der Wissenschaftskommunikation), aber ich mache das nicht gerne. Da ich in der Regel aufschreibe – in klassischen Publikationen oder auch hier als Blogpost (oder in Impact Free) –, was ich zu einem Thema auf der Grundlage meiner wissenschaftlichen Arbeit weiß oder zu wissen glaube, denke ich mir meistens: Ich habe dazu gar nichts Neues zu sagen, es steht doch schon da oder da oder da. Also ja, ich bin da unwillig und es ist schon sehr gut, dass andere da anders sind. Ich hoffe, dass ich den Fehler mit meinem Blog ein wenig wettmachen kann. 😉 Gibt es die Möglichkeit, mich zu Interviewfragen schriftlich zu äußern, sage ich eher ja. Immerhin kann ich dann im Nachhinein belegen, was ich tatsächlich gesagt habe. So ist es auch aktuell mit einer Anfrage einer jungen Journalistin vom Spiegel, die mir dann 10 Fragen zu KI in der Hochschulbildung geschickt hat. Ich habe mich bemüht, mich kurz zu fassen, was schwierig war bei der Art der Fragen. Was jetzt damit passiert, weiß ich nicht, aber: Vielleicht stoßen meine Antwortversuche, wenn ich sie jetzt hier öffentlich mache, auf Interesse bei interessierten Personen – auch aus dem Journalismus.
- Mit welchen Fähigkeiten müssen Hochschulen Studierende künftig ausstatten? Was sind wertvolle Fähigkeiten, die sie können sollten, welche Fähigkeiten fördern solche Tools sogar? Und welche nicht (etwa: braucht es noch die reine Reproduktion von Wissen?)?
Fragen dieser Art hört man häufig. Sie sind ein Spiegel unserer Zeit und verraten etwas über die gegenwärtige Sicht auf Hochschulen: Hochschulen sollen die Aufgabe erfüllen, Menschen mit etwas „auszustatten“ und dazu Tools einzusetzen, heute sind vor allem KI-Systeme gemeint. So aber funktioniert Bildung im Allgemeinen und Hochschulbildung im Besonderen grundsätzlich nicht. Menschen bilden sich; Lehrpersonen können das anleiten, unterstützen, fördern, leider auch behindern. Sich zu bilden bedeutet, sich Wissen anzueignen, auf dem jeweiligen Feld (das man studiert) Können auszubilden und eine (fach)wissenschaftliche Haltung zu entwickeln. Dass wir kein Wissen mehr bräuchten, wie es in der letzten Teilfrage anklingt, ist eine irrige Annahme: Ich behaupte, es wird mit der Verbreitung generativer KI sogar noch wichtiger, über eine solide Wissensbasis zu verfügen (genauer erörtert ist das unter anderem hier). Dass damit automatisch ein Auswendiglernen und bloße Reproduktion von Wissen verbunden seien, hält sich in der öffentlichen Meinung hartnäckig, richtiger wird es davon nicht. Verstehen, Durchdringen – das ist es, was zu einer guten Wissensgrundlage führt. Was Studierende nach einem Studium wissen und können und welche Haltungen sie ausgeprägt haben sollten, lässt sich nicht in einer Checkliste aufzählen, schon gar nicht lässt sich das von politischer oder ökonomischer Seite her definieren und festlegen. Es gehört zu den Aufgaben der Mitglieder einer Hochschule, nach fachwissenschaftlichen und gesellschaftlichen Maßstäben auszuhandeln, was man nach einem akademischen Studium wissen und können sollte.
- Welche negativen Folgen drohen, abseits von Plagiaten, wenn Studierende sich zu sehr auf KI verlassen?
Ich denke, man muss diese Frage überhaupt nicht nur auf Studierende beziehen. Auch Lehrende und Forschende nutzen KI-Systeme zum Verfassen von Texten – und zwar zunehmend mehr. Hierzu gibt es inzwischen zahlreiche nationale und internationale Studien, die daran keinen Zweifel lassen. Die damit verbundenen Herausforderungen sind bei Studierenden, Lehrenden und Forschenden nicht gleich, aber durchaus ähnlich: Wer sich stark und immer mehr auf KI verlässt, verliert die Kontrolle über das, was er oder sie produziert, gibt die Verantwortung ab, verzichtet auf Autorschaft, also darauf, selbst Urheber eines Textes oder auch Bildes, Audios oder Videos zu sein – denn all das lässt sich inzwischen maschinell erstellen. Das besonders Problematische dabei sind nicht Plagiate: Bei einem Plagiat wissen Menschen noch, woher sie ihre Inhalte haben; sie machen das aber nicht kenntlich und geben damit fremde Inhalte als die eigenen aus. Was KI generiert und woher sie das hat, bleibt meist im Dunkeln; je nach System lässt sich die Quelle inzwischen erfragen – und das kann stimmen, aber auch erfunden sein. Flenady und Sparrow (siehe hier) haben dafür eine treffende Formulierung gefunden: KI produziere Bullshit (im Verständnis von Harry Frankfurt) in dem Sinne, dass es für eine Maschine unerheblich ist, ob sie etwas ausgibt, was richtig oder wahr ist oder der wissenschaftlichen Quellenlage entspricht (siehe dazu auch hier).
- Macht uns KI kreativer und/oder denkfauler?
Macht uns die Unterhaltungsindustrie fröhlicher oder deprimierter? Was antworten Sie? Vermutlich, dass es darauf ankommt, was genau wir uns ansehen oder anhören, in welcher Verfassung wir dabei sind, ob wir damit eine unglückliche Beziehung kompensieren oder mit einem Freund einen schönen Abend verbringen wollen. Ich würde sagen, bei KI ist das ähnlich: Experten auf einem Gebiet können mit KI unglaubliche Dinge tun; die Forschung kann in vielen Disziplinen ungeahnte Fortschritte mit KI machen und auf diesem Wege die Forschungskreativität steigern. Gleichzeitig aber kann der Einsatz von KI dazu führen, dass Gedanken und Erkenntnisse einseitiger werden, homogener oder auch verzerrter. In den Händen von Novizen, die so heißen, weil sie Anfänger auf einem Fachgebiet sind, und erst noch Experten werden wollen, kann KI im Vergleich erheblichen Schaden anrichten: Je weniger ich bereits weiß und kann, umso kleiner sind meine Chancen, die Ausgaben einer KI dahingehend beurteilen zu können, ob sie mich auf den richtigen Weg bringen. Dazu kommt: Bleibt Studierenden unklar, was zum Beispiel Übungsaufgaben und Arbeitsaufträge für einen Zweck im Rahmen der persönlichen Bildung haben, ist die Versuchung groß, in den Offloading-Modus beim KI-Einsatz zu gehen: Man lässt KI die Aufgaben erledigen, spart sich so die Mühen und Zeit und erhält gegebenenfalls sogar ein besseres Ergebnis – doch: für wen? Wenn das passiert, dann sind Deskilling und „Denkfaulheit“ die Folge. Und das ist inzwischen nicht mehr nur theoretisch zu folgern (das konnte man schon Anfang 2023: siehe hier), sondern nun auch empirisch belegt (beispielsweise hier).
- Welche sozialen Kompetenzen verlieren Studierende, die sich zunehmend auf KI verlassen?
Wir sollten eher danach fragen, was KI mit den sozialen Beziehungen von Menschen macht. Auch Studierende sind ja nicht nur Träger von Kompetenzen, sondern Menschen, die von einem Studium eine gewisse Arbeitsmarktvorbereitung, eine Einführung in die von ihnen gewählte Fachwissenschaft(en) und Persönlichkeitsbildung erwarten dürfen. Keines dieser Zwecke, die vor über zehn Jahren vom Wissenschaftsrat (hier) noch einmal betont wurden (denn diese bilden seit langem eine wichtige Trias in der Hochschulbildung), lässt sich auch nur ansatzweise erreichen, ohne dass Lehrende, Forschende und Studierende miteinander sprechen und arbeiten, sich austauschen und voneinander lernen, sich in der Sache streiten und aneinander reiben. KI bringt in jedem Fall das Risiko von Sozialverlusten mit sich: KI schiebt sich zwischen soziale Beziehungen auch in der Hochschulbildung. Mit der Verbreitung von Avataren, maßgeschneiderten Study-Buddys und immer besseren Maschinen, die soziale Beziehungen simulieren (ein Gedankenexperimente dazu kann man hier nachlesen), wird dieses Risiko vermutlich erst ins Bewusstsein der Hochschulöffentlichkeit dringen.
- Welche Fähigkeiten sollten Studierende beherrschen, um KI gut nutzen zu können?
Es wird tatsächlich von vielen Seiten erwartet und gefordert, dass Hochschulen den Studierenden KI-Literacy vermitteln: also eine Grundfertigkeit ähnlich dem (akademischen) Lesen und Schreiben. Das ist auf der einen Seite absolut nachvollziehbar. Auf der anderen Seite macht mir Sorgen, dass wir an Hochschulen in diesem Punkt eine sehr reaktive Rolle spielen: Die Gesellschaft und damit auch Hochschulen werden mit KI geradezu geflutet, ohne dass es eine ernsthafte Risikoabschätzung gibt. Petra Gehring liefert dazu in einem online zugänglichen Text (hier) eine wunderbare Analogie aus dem Pharmabereich, die deutlich macht, wie leichtfertig wir mit dem Thema umgehen. Aber um auf die Frage zurückzukommen: Ich würde sagen, die bisherigen akademischen Fertigkeiten wie Lesen und Schreiben sowie der Aufbau einer fundierten fachlichen Wissensbasis sind die besten Voraussetzungen, um KI in dafür geeigneten Fällen gut nutzen zu können. Dass man eine spezielle Ausbildung braucht, um prompten zu können, nimmt inzwischen wohl kaum jemand mehr an. Fachwissen, Lese- und Schreibfähigkeiten, moralisches Bewusstsein und Lernmotivation dürften wichtiger sein. Aber natürlich sollten sich Studierende mit KI befassen und damit experimentieren – vorausgesetzt das geschieht nicht, um sich ausschließlich zu entlasten und sich unliebsamer Aufgaben zu entledigen.
- Wie gelingt der schmale Grat der optimalen KI-Nutzung: es (kritisch) zu nutzen, aber nicht davon abhängig zu werden? Welche und wie viele Denkprozesse mit Hilfe von KI zu überspringen ist in Ordnung?
Ich denke nicht, dass es eine „optimale KI-Nutzung“ überhaupt geben kann. Wer oder was sollte bestimmen, was optimal ist? Es ist nachvollziehbar, dass speziell für Studium und Lehre der Wunsch nach klaren Regeln und Empfehlungen groß ist: Aber die wird es fachübergreifend und für alle Studienabschnitte geltend an Hochschulen vermutlich nie geben können, denn: Zu viele Faktoren beeinflussen, was ein vertretbarer KI-Einsatz ist. „Abkürzungen“ mögen sinnvoll sein, wenn ich als Experte eine routinierte Tätigkeit etwa im Forschungsprozess auslagere. Bin ich Novize und möchte das Forschen erst lernen, ergibt es schlichtweg keinen Sinn, die KI das tun zu lassen, was ich erst einmal selbst durchdringen und verstehen muss. Aber selbst auf Expertenniveau bleibt der Einsatz von KI auf den Erkenntnisprozess nicht folgenlos. Da ist zum einen die in der Frage genannte Abhängigkeit: Wenn Menschen etwas nicht mehr praktizieren, können sie es verlernen und entsprechend unselbständig werden. Zum anderen ist es nahezu unausweichlich, dass wir mit der Nutzung von KI Kontrolle abgeben; wie weitreichend das jeweils ist, hängt vom konkreten Einzelfall ab. Wenn wir handlungsfähig bleiben wollen – und bei diesem Stichwort kann ich nur die Stellungnahme des Deutschen Ethikrats von 2023 empfehlen (hier) –, müssen wir das potenzielle Risiko des Kontrollverlusts auch an Hochschulen, in der Forschung wie in der Lehre, meiner Einschätzung nach mehr berücksichtigen als wir es bislang tun.
- Wie hat sich Ihrer Erfahrung nach in den vergangenen drei Jahren die KI-Nutzung von Studierenden verändert – und wie die Reaktion der Hochschulen darauf?
Hier braucht man gar nicht auf individuelle Erfahrungen zurückzugreifen, denn: Seit 2023 werden zahlreiche Erhebungen bei Studierenden und Lehrenden dazu durchgeführt, wie sie KI nutzen, in welcher Häufigkeit und zu welchem Zweck. Dabei zeigt sich relativ übereinstimmend: Wir sind Ende 2025 bei einer fast flächendeckenden Nutzung, wenn auch mit einigen Unterschieden in den Fächern. Die meisten Hochschulen reagieren so, wie es sich die großen Tech-Unternehmen vermutlich wünschen: Sie versuchen, Studierenden und Lehrenden KI-Systeme zur Verfügung zu stellen, die wenigstens den Datenschutz nicht ganz mit Füßen treten. Wie die weit verbreiteten KI-Systeme trainiert werden, welche Formen von Ausbeutung dahinterstehen, wie viele Ressourcen das alles schluckt – darauf haben die Hochschulen keinen Einfluss. Inzwischen regt sich in dieser Hinsicht aber Widerstand. Ein Beispiel dafür ist der offene Brief niederländischer Wissenschaftler (hier), in dem sie fordern: „Stop the uncritical adoption of AI technologies in academia“. Es tut sich da ein enormes Spannungsfeld auf, das auch jeden einzelnen von uns an der Hochschule betrifft: Wir stehen vor der Notwendigkeit, auf KI zu reagieren, haben die Verantwortung und Pflicht, Studierende auf eine Arbeitswelt und Gesellschaft mit KI vorzubereiten – oder besser: sie darin handlungsfähig zu machen –, erahnen aber (inzwischen) zunehmend die Risiken und sehen uns bereits in Abhängigkeiten von großen Tech-Unternehmen stehen.
- Wie hat KI die Lehre verändert? Welche Defizite von Hochschulen offenbart die KI?
KI verändert gerade unsere Gesellschaft – das ist nicht zu leugnen. Hochschulen sind Teil der Gesellschaft und stehen daher ebenfalls vor vielen offenen Fragen, was den Einfluss von KI auf Lehren, Lernen und Bildung betrifft. In den wohl meisten Hochschulen wird seit 2023 viel über KI diskutiert; KI-Leitlinien und KI-Guides werden erstellt; Prüfungen stehen auf dem Prüfstand und Eigenständigkeitserklärungen werden angepasst; zudem werden Angebote für Lehrende und Studierende gemacht, sich zu KI zu informieren; Lehrende erproben und evaluieren, wo es sinnvolle Einsatzbereiche für KI gibt – sicher nicht flächendeckend, aber auch nicht nur am Rande. Es gibt in diesem Zusammenhang verschiedene Auffassungen, was die Chancen und Risiken von KI in der Hochschulbildung betrifft, und meiner Beobachtung zufolge spricht man darüber auch und tauscht Perspektiven aus. Das braucht seine Zeit, was von außen gerne kritisiert wird – zu Unrecht, wie ich finde. Ganz anders aber sieht das wohl für viele (wenngleich sicher nicht alle) Studierende aus: Sie nutzen KI ganz unabhängig davon, was ihnen die Hochschule anbietet und was Lehrpersonen anleiten oder anregen. Hier vollzieht sich ein rasanter Wandel: Studierende nutzen KI häufig „unbegleitet“ und unbedarft, und das geht gerade für Novizen in frühen Phasen des Studiums mit enormen Risiken einher, wie ich es an anderer Stelle schon ausgeführt habe. Daraus zu folgern, dass KI nun aufdeckt, wie schlecht unsere Lehre ist, ist in dieser pauschalen Formulierung (wie man sie oftmals hört) aus meiner Sicht nicht stichhaltig. Dass KI einige zentrale Spannungsmomente, die Hochschulbildung immer schon mit sich bringt, noch deutlicher macht, würde ich dagegen schon unterstreichen (siehe dazu hier): Wenn wir zum Beispiel gerade etwas hilflos zusehen, wie sich KI ins Studium drängt (ob wir das wollen oder nicht), könnte das damit zu tun haben, dass es, aus ganz verschiedenen Gründen, zwischen Lehrenden und Studierenden eher lose oder gar keine tragfähigen Beziehungen gibt. Eine bessere Beziehungsqualität und ein Gefühl akademischer Zugehörigkeit seitens der Studierenden könnten uns jetzt in Bezug auf einen verantwortungsvollen Umgang mit KI viel helfen – um nur ein Beispiel zu nennen.
- Sollten Dozierende künftig besser erklären müssen, warum sie etwas überhaupt noch wissen müssen?
Ich deute die Frage so, dass mit „sie“ die Studierenden gemeint sind. In dem Fall würde ich sagen, dass Lehrpersonen mit Studierenden grundsätzlich darüber sprechen sollten, was man in einer Disziplin bzw. in einem Fach warum wissen (und können) sollte. Das kann man freilich nicht bei jedem einzelnen Inhalt, aber bezogen auf ganze Veranstaltungen, Module oder Studienabschnitte schon. Es hilft uns allen, wenn wir uns in regelmäßigen Abständen vergewissern, wie der inhaltliche (curriculare) Rahmen eines Studiums beschaffen ist: Erkenntnisse, Fragen, Methoden ändern sich in jeder Fachwissenschaft; Wissen wird ausgebaut, mitunter auch revidiert, Forschungszugänge entwickeln sich oder differenzieren sich aus – all das hat Einfluss auf Curricula. Auch die gesellschaftlichen Erwartungen bleiben über die Zeit nicht gleich, ebenso nicht die Erwartungen der Studierenden selbst. Inakzeptabel aber ist es aus meiner Sicht, wenn allein Politik und Wirtschaft festlegen wollen, was „zukunftsrelevante Kompetenzen“ und damit auch Inhalte sind, die ein Studium „liefern“ sollte. Lindebaum und Kollegen bezeichnen Entwicklungen in diese Richtung treffend als eine Transformation hin zu „organisierter Unmündigkeit“ (siehe hier).
- Demokratisiert KI Bildung?
Das würde ich mir sehr wünschen. Die Frage nach einem positiven Einfluss von Technologie auf Demokratisierung im Allgemeinen und Demokratisierung der Bildung im Besonderen gibt es immer wieder. Offene Bildungsressourcen und Massiv Open Online Courses (MOOCs) sollten Bildung zugänglicher machen: Was hat es gebracht? An Social Media knüpfte man gar die Erwartung, Menschen würden sich direkt in politische Prozesse einbringen und etwas bewegen. Heute fürchten wir Social Media vor allem als Gefahr für die Demokratie aus den uns allen bekannten Gründen. Das sollte eigentlich bereits gezeigt haben, dass keine Technologie, sondern immer nur Menschen das demokratische Handeln und Denken stärken und leider auch beschädigen oder zerstören können; das dürfte im Bildungskontext ähnlich sein. Ehrlich gesagt aber verbinde ich persönlich KI gar nicht erst mit der Hoffnung, dass diese einen wie auch immer gearteten demokratisierenden Effekt haben kann. Eher könnte KI dazu beitragen, das Bemühen zu untergraben, allen Menschen ausreichend Möglichkeiten zu eröffnen, selbstbestimmt handeln zu lernen. Daher sollten wir zwingend mehr in die Bildung von Menschen investieren als in das Training von KI.