Vertrackte Probleme

Iosif Gidiotis hat in der Zeitschrift Futures, kürzlich einen Text mit dem Titel Speculative futures of artificial intelligence in education: A causal layered analysis of education fiction publiziert. Der Beitrag stellt eine Studie vor, in der untersucht wird, wie Akteure an schwedischen Hochschulen Zukunftsszenarien für Künstliche Intelligenz (KI) im Bildungsbereich entwerfen. Knapp 70 Lehrende, Studierende und Forschende haben hierzu über eine Web-Plattform kurze spekulative Zukunftsszenarien eingereicht. Ein Szenario war jeweils begrenzt auf 80 bis 150 Wörter und konnte in beliebiger Sprache eingegeben werden.

Die Zukunftsszenarien wurden nach einem bestimmten Verfahren ausgewertet, wobei die Oberfläche der Beschreibung, Zusammenhänge mit z.B. ökonomischen und politischen Strukturen, sich zeigende Werte und Überzeugungen sowie Metaphern und kulturelle Vorstellungen (im Sinne von vier Ebenen) berücksichtigt worden sind.

Im Ergebnis zeigten sich vier – ich nennen es mal – Gestalten oder Bilder:

  • das Bild von der Erweiterung: KI als Assistent oder Partner (wobei es, so meine ich, ein wesentlicher Unterschied ist, ob KI als Werkzeug oder als Partner gesehen wird); Personalisierung des Lernens; Hochhalten menschlichen Urteilsvermögens
  • das Bild von der Transformation: Mensch-KI-Verschmelzung; Entstehung von Lernökosystemen mit Umgestaltung von Institutionen
  • das Bild von der Verschiebung: Automatisierung durch KI; Marktlogik, Deskilling auf der Lehrenden-Seite; Hochschulen als Zertifikatsstätten
  • das Bild vom Widerstand: Schutz vor KI; KI-freie Räume zur Wahrung von Autonomie, Authentizität und Empathie.

In allen Bildern, so die Autoren, gibt es drei übergreifende Spannungsfelder – ich reformuliere sie mal als Fragen: (a) Was bleibt genuin menschlich? (b) Wie lassen sich Leistungen bei allseits verfügbarer KI noch bewerten? (c) Wie geht man mit dem Zielkonflikt Effizienz und Tiefe um?

Aus diesen Spannungsfeldern folgern die Autoren, dass KI im Bildungsbereich „wicked problems“ produzieren – ein Begriff, der aus den Designwissenschaften stammt und vermutlich am besten mit „vertrackte Probleme“ übersetzt wird: Probleme, die sich nicht exakt beschreiben lassen, für die es nicht die eine (und schon gar keine technische) Lösung gibt, die verschiedene Ursachen haben (können), oft eine paradoxe Struktur aufweisen und dann auch noch in der Regel mit anderen Problemen verknüpft sind.  

Die Lektüre des Text lohnt sich aus meiner Sicht aus zwei Gründen:

  • Methodischer Grund: Es wird hier primär empirisch gearbeitet, indem Artefakte – produziert von Hochschulmitgliedern – nach bestimmten Gesichtspunkten erhoben und analysiert werden. Diese Artefakte aber sind – und das ist das Besondere – fiktive (kurze) Erzählungen (im Text „speculative futures“ genannt). Es wird also das Fiktionale in das empirische Design aufgenommen. Fiktion kann auch im theoretischen Forschen eine Rolle spielen, etwa beim Einsatz von philosophischen Gedankenexperimenten (siehe dazu z.B. hier und hier). Grundsätzlich denke ich, dass solche und andere narrative Verfahren in der Forschung zu KI im Hochschulkontext eine wichtige Ergänzung zu herkömmlichen und verbreiteten Methoden und Formen des Forschens sind.
  • Die fiktiven Zukunftsszenarien der hier befragten Zielgruppe spiegeln wider, was vermutlich viele im Hochschulkontext erfahren: Es gibt höchst unterschiedliche Einschätzungen zu KI in der Hochschulbildung und am Ende finden sich bei vielen (nicht allen) dieser Einschätzungen Aspekte, die man etwa als Zuhörer, Leser oder Diskutant spontan bejaht, während man bei anderen Aspekten Widerstand spürt, ohne sich der EINEN Position zuordnen zu können. Angenommen, die Diagnose stimmt, dass KI in der Hochschulbildung vertrackte Probleme im oben genannten Sinne produziert, Probleme also, denen oft auch eine paradoxe Struktur inhärent ist, dann ist eine Heterogenität der Einschätzungen kein Manko, sondern notwendig.

Das eigentlich Problematische sehe ich daher nicht in unterschiedlichen oder konträren Einschätzungen zu KI in der Hochschulbildung. Problematisch scheint mir die Tendenz (manchmal auch der Reflex), Lager zu bilden und Labels zu verteilen, je nachdem ob ein Autor oder Autorenteam Aspekte von KI herausarbeitet, die positiv oder negativ konnotiert sind, die Risiken oder Potenziale beleuchten. Suspekt sind mir zudem all diejenigen Plädoyers oder Aufforderungen im Umgang mit KI an der Hochschule, die implizieren, man wisse, „wie es geht“, oder in denen schnell ein Urteil gefällt wird, welche Herangehensweisen naiv und welche reflektiert, welche euphorisch und welcher besonnen, welche mutig und welche ängstlich, welche zukunftsorientiert und welche rückwärtsgewandt sind. Bringt uns das weiter?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert