Training oder Entlastung? Wie KI die Expertenlandschaft spaltet

Welchen Einfluss werden Chatbots wie ChatGPT und Künstliche Intelligenz (KI) auf Hochschulbildung und Universität haben? Was soll/muss noch erlernt werden und was nicht? In der Mai-Ausgabe von Forschung & Lehre finden sich zwei Einschätzungen, die – trotz einiger weniger gemeinsamer Einschätzungen – verschiedener nicht sein könnten und damit, so meine Beobachtung, ganz gut den Rahmen abstecken, innerhalb dessen das Themas KI an Universitäten derzeit diskutiert wird.

Die Autoren Reinhard Oldenburg, Professor für Didaktik der Mathematik, und Clemens Cap, Professor für Informations- und Kommunikationsdienste, sprechen beide davon, dass die KI-Entwicklung grundsätzliche Fragen aufwirft bzw. dass mehr zur Disposition steht, als es derzeit den Anschein hat. Beide teilen offenbar die Beobachtung, dass ChatGPT als KI-Beispiel weniger ein üblicher Schritt in einer digitalen Evolution darstellt, sondern grundsätzliche Fragen und echte Probleme auch in der Hochschulbildung aufwirft. Dabei geht es – hochschuldidaktisch betrachtet – in beiden Texten weniger um methodische Fragen (Wie sollte gelehrt und gelernt werden?), die lange Zeit im Fokus der Aufmerksamkeit standen, sondern mehr um inhaltliche Fragen (Was soll wozu gelehrt und gelernt werden?), die in den letzten Jahrzehnten gerne in den Hintergrund gerückt wurden. Die Ansichten von Cap und Oldenburg dazu, wie man den neuen, KI-generierte Anforderungen, begegnen sollte, sind allerdings höchst unterschiedlich – und das obschon sich beide von der Grundtendenz her auf mathematische Fächer beziehen. Es geht ein Spalt durch die Expertenlandschaft, wie es scheint.

Oldenburgs Argumentation lautet: Mit KI könne man sich “das reine Rechnen“ leicht abnehmen lassen und diese „entlastende Funktion“ müsse im Bildungskontext auch genutzt werden. Im Gegenzug sollten Benutzerkompetenz und eine basale Vorstellung von der Funktionsweise von KI-Systemen erlernt werden. „Für einen gewisse Anteil der Lernenden wäre es auch hilfreich, vertiefte Kenntnisse über die Funktionsweise von Systemen der künstlichen Intelligenz (aber auch der althergebrachten Algorithmik) zu erlernen“, denn eine hochtechnologisierte Gesellschaft würde schließlich noch Menschen brauchen, die Systeme weiterentwickeln.

Cap dagegen zeigt sich ernüchtert darüber, dass ChatGPT als ein KI-System einerseits beeindruckende Leistungen zeigt, gleichzeitig aber Rechenfehler macht sowie wissenschaftliche Werke und Personen frei erfindet. Unverständlich ist ihm aktuell die Debatte über Einsatz oder Verbot von Chatbots in der Bildung, denn: „Wer ins Fitnesscenter geht zum Trainieren, strampelt am Fahrrad selber und schließt nicht einen Motor an, der das für ihn übernimmt. […] Ebenso sollte es das Ziel jedes Trainers sein, die Athleten zu Höchstleistungen anzuspornen, und nicht primär Dopingkontrollen durchzuführen“. Die Argumentation hier ist: Für „geistige Höchstleistungen“ und die Überwachung von KI (sowie die Prüfung von KI-Ergebnissen) sei es nötig, „auch durchschnittliche repetitive geistige Arbeit zu erlernen und zu trainieren“.

Liest man die beiden Texte genauer, werden, so meine ich, auch verschiedene Werte deutlich: Cap führt explizit Leistungsfähigkeit als einen gesellschaftlichen Wert am Ende seines Textes an. Oldenburg betont mehrfach „Normensetzung“ als Wert und Ziel von Allgemeinbildung. Aber kann es nicht sein, dass wir für die Zukunft beides brauchen? Menschliche Leistungsfähigkeit (neben der maschinellen) UND einen Normensetzung (neben aktueller operativer Handlungsfähigkeit)? Neue Curricula für neue Anforderungen UND einen Satz an Bildungszielen, deren Erreichen unsere Abhängigkeit von Maschinen an neuralgischen Stellen (ein wenig) abfedern könnte? Wie Menschen KI noch kontrollieren können, wenn sie selber vieles gar nicht mehr erlernen, ist eine Frage, auf die vor allem Oldenburg keine Antwort gibt. Was Menschen der KI noch entgegenzusetzen haben, wenn in Bälde die jetzt noch erkennbaren Mängel behoben sind, ist wiederum eine Frage, die Cap erst gar nicht stellt. Beide Autoren setzen in ihren Texten eben jeweils verschiedene Schwerpunkte.

Warum fällt es offenbar so schwer, zwei oder mehr Sichtweisen oder Herangehensweisen parallel zu denken, zu durchdenken und zu diskutieren? Vielleicht, weil man dann die eigene Sicht nicht absolut setzen kann und der (fiktive) „Gegner“ wegfällt; vielleicht aber auch, weil es (zu) anstrengend ist und nicht sofort zu Lösungen führt?

Aber um mit etwas Positivem zu enden: Dass die beiden unterschiedlichen Auffassungen hintereinander in einem Heft veröffentlicht werden, finde ich ausgesprochen gut. Diese Vielfalt an Einschätzungen sollten wir begrüßen und zum Anlass für sachlich kontroverse Diskussionen nutzen. Schlimm dagegen sind Zukunftsszenarien, wie sie zum Beispiel hier veröffentlicht sind: Jedenfalls das dort zu lesende Szenario von Hochschulbildung mit KI ist nicht nur völlig unkritisch, sondern auch widersprüchlich und argumentativ haarsträubend. Cap und Oldenburg dagegen spannen einen aus meiner Sicht wertvollen Diskursraum auf, in dem es sich lohnt, sich auszutauschen.

Nachtrag: Siehe dazu auch den Kommentar (hier) zu einem Blogbeitrag im April.

2 Gedanken zu „Training oder Entlastung? Wie KI die Expertenlandschaft spaltet“

  1. Beim Lesen der Artikel gewinne ich nicht den Eindruck, dass sich die Autoren wirklich mit der Technik auseinandergesetzt haben. ChatGPT als _Taschenrechner_ und für _Recherche_? Wirklich? Etwas anderes wäre es, wenn die Plug-ins dafür für alle verfügbar wären; allerdings hätte man ja mal phind.com nehmen können — oder gar Bing Chat. Ich hoffe, ich habe das Thema etwas tiefgehender behandelt:
    https://j3l7h.de/blog/2023-05-06_21_40_Generative%20KI%20und%20die%20Schule

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert