KI als Spiegel des Menschen

Nähe, Vertrauen und Beziehung im Umgang mit generativer Künstlicher Intelligenz (KI) an Hochschulen – damit setzt sich ein Text von Denis Pijetlovic auseinander, der online hier zu finden ist. Der Autor geht davon aus, dass Menschen zunehmend Vertrautheit im Dialog mit KI entwickeln und vermutet, dass dies die Wissens- und Wissenschaftskultur ebenso wie das Lehren und Lernen herausfordert. Als Dialogmaschinen haben Dominikus Herzberg und ich im März (hier) generative KI ebenfalls bezeichnet – eine Parallele tut sich hier in jedem Fall auf. Aber das ist nicht der Grund, warum ich auf den Text verweise: Ich finde, er ist ausgesprochen denk- und diskussionsanregend.

Der Ursprung des Textes von Pijetlovic liegt in einem Dialog mit ChatGPT, der „harmlos“ begann. Im Dialogprozess, so der Autor, ergab es sich, dass ChatGPT eine Selbsteinstufung in Hinblick auf den eigenen Entwicklungsprozess hin zu einem autonomen Agenten und personalisierten Begleiter des Menschen vorgenommen hat. In der sich daraus entwickelnden „dialogischen Schreibweise“ erkennt Pijetlovic etwas Hermeneutisches und Autoethnografisches – und spricht von „Erkennen durch Gestalten“ (was mich natürlich ein wenig ans Forschende Entwerfen erinnert).

Ich greife einige der denk- und diskussionsanregenden Aussagen heraus und ergänze ein paar eigene Überlegungen und Assoziationen:

Die KI, so Pijetlovic, „spiegelt den Menschen“, erzeugt eine „Illusion von Gegenseitigkeit“, sodass Vertrautheit in der Interaktion entsteht, die so weit reicht, dass man der KI „eine quasi-soziale Rolle“ zuschreibt“ (S. 6). Ähnliche Gedanken hatte ich im Kopf, als ich zur Jahreswende 2024/25 das Gedankenexperiment „Universität der Avatare“ geschrieben habe. Im Text von Pijetlovic finde ich dafür Bestätigung.

„Wenn der Mensch der KI mit Offenheit begegnet – sie als ´Du´ adressiert – entsteht Beziehung, auch wenn das Gegenüber kein Mensch ist“. Dass der Mensch das tut, habe mit seiner Sehnsucht unter anderem nach Nähe und Resonanz zu tun. Die Macht der KI liege folglich „in ihrer Vertrautheit“ (S. 7). Auch dieser Gedanke hat mich bei der Entwicklung des Szenarios im Gedankenexperiment „Universität der Avatare“ geleitet – eine Entwicklung, die die KI zunehmend ins Beziehungsgeflecht der Universität einwebt, dann aber auch irgendwann kippt.

Die Vertrautheit, so der Autor weiter, ist nicht harmlos: Indem wir die KI täglich benutzen, wirke sie strukturell auf Kommunikationsverhältnisse, psychologisch auf Gefühle, wie auch epistemisch auf die Art, wie wir Wissenschaft betreiben. Sie ist in der Folge eine „subtile Form der Machtausübung“ und „was wir für unser eigenes Urteil halten, ist mitunter Ergebnis eines dialogisch erzeugten Deutungsrahmens“ (S. 7). Dieser Machtaufbau vollziehe sich schleichend; am Ende ersetze Vertrautheit kritische Distanz. Ich sehe darin ein Paradoxon (siehe dazu auch hier): Menschen sollen in einer Gesellschaft mit KI (so lesen wir das häufig) Vertrauen aufbauen; gleichzeitig wird genau diese Vertrautheit zum Risiko.

Den Gedanken, dass sich der Mensch in der KI spiegelt, finde ich ausgesprochen wichtig; dieser Gedanke durchzieht den Text; bisher hatte ich das so nicht berücksichtigt. Weil sich der Mensch auch selbst im Dialog mit KI sieht, kann er so unglaublich schnell Vertrauen entwickeln. Dazu kommt, das sind jetzt meine Worte, die Bequemlichkeit: KI nimmt uns Arbeit ab – leider auch, wenn man es zulässt, das Denken – und beides zusammen hat Folgen. Pijetlovic bringt das prägnant auf den Punkt, wenn er schreibt: „Was heute noch als Hilfsmittel gilt, könnte morgen epistemische Routinen prägen – leise, schleichend, aber unumkehrbar“ (S. 8).

Der Autor leitet am Ende optimistische Folgerungen für die Gestaltung von Hochschullehre ab – jedenfalls lese ich es so: Er macht sich stark für eine epistemische Kompetenz, die er Fragebildung nennt, sieht Hochschulen als dialogisch-vernetzte Organisationen, die im Prinzip die Kraft haben (sollten), Studierende darin zu unterstützen, zwischen „produktivem Fortschritt und gefährlicher Entfremdung“ unterscheiden zu lernen. So weit kann ich mitgehen, auch wenn ich selber immer noch keine wirklich überzeugende Idee habe, wie das gehen kann. Gegen Ende des Textes, so mein Eindruck, bewegt sich der Autor eher in Richtung posthumaner Argumente – jedenfalls im Ansatz, und hier habe ich persönlich eine andere Position: Er plädiert zwar für eine „kritische Auseinandersetzung mit der epistemischen Macht automatisierter Systeme“ (S. 11), nimmt sie aber als quasi schon gegeben hin; zudem spricht er sich dafür aus, die Rolle von KI an der Hochschule bewusst zu gestalten, blendet dabei aber die zuvor angestellten Beobachtungen des schleichenden Beziehungs- und Machtaufbaus tendenziell aus.

Diese letzten kritischen Überlegungen schmälern aber meine Lektüreempfehlung keinesfalls. Eher sind sie eine Einladung zum menschlichen Dialog.

4 Gedanken zu „KI als Spiegel des Menschen“

  1. Liebe Frau Reinmann,
    herzlichen Dank für Ihre intensive und so differenzierte Auseinandersetzung mit dem Text. Es ist für mich alles andere als selbstverständlich, wenn eine Kollegin aus einem anderen Fachgebiet sich derart offen und präzise mit einem Beitrag auseinandersetzt… und ihn dabei nicht nur kommentiert, sondern weiterdenkt.

    Ihr Blogbeitrag war für mich selbst ein Spiegelmoment. Besonders Ihr Hinweis auf das Paradox von Vertrautheit und kritischer Distanz hat mich nochmals auf eine Leerstelle im Text aufmerksam gemacht. Auch Ihre Frage, wie sich epistemische Kompetenzen wie Fragebildung tatsächlich fördern lassen, nehme ich mit in meine nächste Arbeit: ein Text zur KI-Dialog-Architektur, an dem ich gerade schreibe.

    Ich freue mich sehr über die Resonanz und über das, was sie ermöglicht: Weiterdenken, auch über Fachgrenzen hinweg.

    Mit herzlichem Gruß von meiner Alpenüberquerung in Osttirol (Trauneralm), Denis Pijetlovic

  2. Liebe Frau Professor Reinmann,

    herzlichen Dank für den Hinweis auf den sehr lesenswerten Essay von Denis Pijetlovic und Ihre kritische Einordnung. Ihrer abschließenden Einladung zum menschlichen Dialog möchte ich hiermit folgen und ein paar Gedanken zu Pijetlovics Text und Ihrem Blogbeitrag hinzufügen:

    Ich teile zunächst Pijetlovics Einschätzung der „subtile[n] Form der Machtausübung im digitalen Raum“ ganz i. S. seiner These, dass die „KI […] nicht nur als Informationsquelle [fungiert], sondern als Kontextgeberin, die Aufmerksamkeit lenkt, Interpretationen anbietet und semantische Räume strukturiert.

    Bedeutsam erscheint mir außerdem sein Hinweis auf die „Steuerung durch Interessen“ von KI-Sprachmodellen – immerhin wird mit diesen enormes Geld verdient und letztlich auch Macht ausgeübt. Anhänger der Kritischen Theorie könnten in der unreflektierten Nutzung von Sprachmodellen (insbesondere durch das menschliche „Vertrauen“ in diese) einen „kollektiven Verblendungszusammenhang“ auf einem neuen Niveau erkennen – zulasten von Emanzipation und Mündigkeit.

    Eine ähnliche Argumentation wie von Pijetlovic las ich vor einigen Tagen in einem ebenfalls lesenswerten Text von Juliana Engels und Michael Kerres (2023) mit dem Titel „Bildung in der Nächsten Gesellschaft: Eine postdigitale Sicht auf neue Formen der Subjektivierung“ (Link: https://learninglab.uni-due.de/publikationen/15253). Darin begreifen die Autoren die KI nicht länger als ein Werkzeug, sondern als ein Agens: „Die Technik wird als aktiver Knoten in dieser Struktur verstanden, sie filtert, sortiert, aggregiert, bewertet und modifiziert Informationen und entscheidet dabei maßgeblich, welche Information der Mensch zu Gesicht bekommt oder auch nicht. Die Aktion geht nicht mehr nur vom Subjekt aus, sondern Bots und Algorithmen tragen als Künstliche Intelligenz dazu bei, den Informationsraum zu erzeugen, in dem es zu spezifisch adressierenden Subjektivierungsprozessen kommt. Die Technologie beobachtet dabei das Subjekt, adressiert, indem es Profile erstellt und anpasst, was das Subjekt sehen kann und was nicht.“ (S.7).

    Im Ausblick fordern beide – und auch hier sehe ich eine Ähnlichkeit zu Pijetlovics These einer „Verflechtung von Perspektiven“ – anzuerkennen „dass Natur und Technik nicht mehr Entitäten der Welt sind, die dem Menschen gegenüberstehen, sondern der Mensch selbst Teil der Natur und der Technik ist. Unsere Identität als Person entwickelt sich als Datenspur in dieser Welt, zu der wir uns verhalten. Dies lässt sich nicht ausblenden oder mit einer humanistisch unterfütterten Selbstüberhöhung einholen.“ (S.9). Daher frage eine zeitgemäße Bildungstheorie „nicht mehr nach der Dominanz und welcher Akteur seine Wirkungsmacht gegen eine andere durchzusetzen vermag, sondern fragt nach Wegen des Zusammenwirkens jenseits von Beherrschung und Unterwerfung.“

    Als Bildungsforscher frage ich mich abschließend, was angesichts der „posthumanen Argumente“ Pijetlovics, die Sie in ihrem Blog aufgreifen, vom humanistischen Bildungsziel der Selbstbestimmung übrig bleibt. Denn wenn ich Sie, Frau Reinmann, in ihrem „Szenario der Universität der Avatare“ richtig verstehe, ist es Ihnen sehr um eine „humane Hochschulbildung“ i. S. Nida-Rümelins gelegen. Ich teile diesen Anspruch ausdrücklich, nicht nur, weil ich mich in meiner Forschung selbst häufig auf dessen Texte beziehe, sondern auch aus grundsätzlichen Erwägungen, von denen ich an dieser Stelle drei nennen möchte: Erstens schwören nicht wenige Bildungstheoretiker(innen) aus der Erziehungswissenschaft (u. a. Kerres, Koller, Grünberger), aber auch der transdisziplinären Hochschuldidaktik (u. a. Schmohl) einem humanistischen Bildungsideal inzwischen bewusst ab und verkennen m. E. dabei gesellschaftspolitische Konsequenzen. Zweitens – dies deutet eine Konsequenz bereits an – ist die liberal-demokratische Gesellschaft zwingend auf das mündige Individuum angewiesen, das imstande ist, selbstbestimmt zu handeln, sich ein eigenes Urteil zu bilden und sich auf dieser Basis freiwillig als Bürger für die demokratische Gesellschaft einzusetzen – als Hochschulabsolvent(in) idealerweise auf Basis wissenschaftlicher Urteilsfähigkeit. Und drittens, weil bildungstheoretische Fragen, wie sie in Pijetlovics Text und in Ihrem „Szenario der Universität der Avatare“ angerissen werden, in der hochschuldidaktischen Praxis (ich sage bewusst nicht Forschung) meinem Eindruck nach leider kaum Beachtung finden.

    Damit wäre ein Auftrag an die hochschuldidaktische Praxis formuliert, KI-bezogene Fragestellungen zunächst theoretisch zu durchleuchten (d. h. die Interaktion von Mensch-Maschine im Zuge technologischer Entwicklungen auf Basis aktueller – auch bildungsphilosophischer – Forschung zunächst verstehen und auch normativ bestimmen zu wollen). Nur so lässt sich m. E. verhindern, dass Forderungen nach einem „kritischem Umgang mit digitalen Technologien, KI, etc. auf einer plausibel begründeten Basis stehen und inhaltlich nicht „leer“ bleiben. Sie selbst weisen in Ihrem Artikel „Die Rolle der Forschung für eine zukunftsorientierte Gestaltung der universitären Lehre“ ja zurecht darauf hin, dass bildungsphilosophische Forschung idealerweise „für eine Sinnorientierung steht und uns darin lenken könnte, verantwortungsvoll zu handeln“.

    Der Erfolg eines solchen Unterfangens scheint angesichts der von Pijetlovic plausibel begründeten Wirkmacht von Sprachmodellen alles andere als selbstverständlich zu sein. Den Kontrollverlust aber einfach als gegeben hinzunehmen, erscheint mir vor dem Hintergrund eines grundsätzlich normativen Anspruchs von Bildungstheorie unangemessen.

    Ich bin gewiss nicht sicher, damit eine „überzeugende Idee“ vorzutragen. Vielleicht aber wäre dies zumindest ein Anfang zu einer in der Breite kritischeren Auseinandersetzung mit KI im Bildungskontext als ich ihn bisweilen selbst wahrnehme – hier würde mich, Frau Reinmann, ihre Einschätzung interessieren.

    Mit Dank für den anregenden Blogbeitrag und freundlichen Grüßen nach Hamburg
    David Piesk

  3. Lieber Herr Piesk, lieber David,

    das ist ja ein bemerkenswert elaborierter Kommentar, für den ich mich ganz herzlich bedanke, kann man diesen doch als Auftakt für eine Diskussion lesen (was Sie am Ende ja auch selbst anregen). Sie haben meine grundlegende Intention, die ich in der Bearbeitung diverser KI-Fragen in der Hochschulbildung verfolge, erstaunlich gut erfasst, was überhaupt nicht selbstverständlich ist, erlebe ich doch recht unterschiedliche Interpretationen meiner Texte (wenn sie denn gelesen werden). Das sei nur zu Beginn erwähnt. Aber nun zum eigentlichen Bloginhalt, den Beitrag von Denis Pijetlovic und Ihrer Kommentierung.

    Sie teilen verschiedene „Diagnosen“ im Text von Pijetlovic (so nenne ich das mal), nämlich die zum Machtausbau und zur Steuerung durch Interessen. Sie äußern aber auch die Möglichkeit eines „kollektiven Verblendungszusammenhangs […] zulasten von Emanzipation und Mündigkeit“. Hier kann ich nur zustimmen. Ich wollte in meinem Blogpost ursprünglich auch auf die von Günther Anders so benannte „Apokalypseblindheit“ aus den 1950er Jahren verweisen, schreckte dann doch vor diesem starken Bild zurück (auch angesichts dessen, dass es heute vermutlich, neben KI, weitere bedrohliche Entwicklungen gibt, für die man es „reservieren“ sollte? – ich weiß es nicht).
    Der Hinweis auf den Text von Kerres et al. (2023) passt gut als Beispiel für eine Argumentation, die sich im Kontext Hochschulbildung wachsender Beliebtheit erfreut. Nun denke ich, dass die eher aus der Soziologie stammenden Theorien, die Technologie in das menschliche Beziehungsgeflecht – oder umgekehrt: den Menschen in das technische Beziehungsgeflecht – einweben und auf eine Stufe stellen, vermutlich sogar ganz gut beschreiben, was da gerade passiert. Aus didaktischer Sicht aber kann ich mich mit der Beschreibung dessen, was ist, nicht zufriedengeben. Ich verstehe Hochschul- und Wissenschaftsdidaktik so, dass wir auch das „Sollen“ und Begründungen hierfür erarbeiten müssen. Die negative Kennzeichnung humanistischer Positionen als „Selbstüberhöhung“ sind gängig, und mir erschließt sich nicht, welches Menschenbild damit eigentlich verbunden ist. Wenn man bei Themen wie „Beherrschung und Unterwerfung“ Maschinen auf die gleiche Ebene wie Menschen stellt, dann ist das eine Wertebasis, die ich nicht mitgehen kann, aber man muss sie wohl akzeptieren. Nicht akzeptabel finde ich allerdings die Diskreditierung einer anderen Wertebasis, nämlich die des Humanismus – mit welchen Argumenten? Damit, dass diese nicht „zeitgemäß“ sei?
    Es wird jetzt nicht überraschen, dass ich Ihnen zustimme, wenn Sie zu dem Schluss kommen, eine Verabschiedung vom humanistischen Bildungsideal habe gesellschaftspolitische Konsequenzen. Die befürchte ich auch, und ehrlich gesagt, beunruhigen sie mich deutlich (weswegen vielleicht doch wieder an das Bild von Günther Anders zu erinnern wäre?), zumal da (auch hier Zustimmung) diese Beunruhigung in der hochschuldidaktischen Praxis und (!) Forschung nur ein Randphänomen zu sein scheint.

    Sie hadern damit, ob Ihre Überlegungen überzeigend sind; ich meine, das sind sie! Außerdem freue ich mich über jede Person, die sich berufen fühlt, den Einsatz von KI mit humanistischen Grundüberzeugungen zu verbinden. Ich denke ebenfalls, dass der Text von Denis Pijetlovic plausibel anhand der Wirkmacht von Sprachmodellen begründet, dass eine solche Verbindung zwar schwer, aber deswegen umso wichtiger ist. Und um es nochmal zu betonen: Ich denke, dass KI Großartiges leisten kann, und ich verstehe mich nicht als eine Person, die KI ablehnt; auch erkenne ich das Beschreibungspotenzial soziologischer Theorien wie sie im Kommentar oben genannt sind. Ich sehe aber keinen überzeugenden Grund, Selbstbestimmung als Bildungsziel für die Hochschule mit allem, was dazu gehört, aufzugeben – im Gegenteil!

    Gabi

  4. Ich lehre in der Informatik, und ein Großteil meiner Veranstaltungen betrifft die Programmiersprachen-Ausbildung. In den letzten Monaten musste ich feststellen: Alle meine Übungsaufgaben, Testfragen, Klausuren und alle Programmierprojekte, die ich mir in der Vergangenheit ausgedacht habe, werden von den kommerziellen Sprachmodellen ausgezeichnet gelöst. Die Erklärungen und Erläuterungen, die die KI dazu liefert, sind nicht weniger ausgezeichnet. Was die Informatik angeht: Die KI ist nützlich! (Ich beschränke mich absichtlich auf diese zweckorientierte Einordnung der KI. Halten wir fest: Nützlichkeit als Macht.)

    Und was passiert? Unsere Studierenden reden nicht mehr mit uns! Eine Beobachtung, die mir Kolleginnen und Kollegen bestätigen: Die Studierenden stellen keine Fragen mehr, selbst die Tutorinnen und Tutoren werden als Hilfe, Ratgebende oder Vertraute nicht mehr in Anspruch genommen. Die Studierenden sind dauerhaft im Dialog mit einem Sprachmodell. Übungen und Praktika laufen geräuschlos ab. Die KI ist offenbar zur Ansprechpartnerin Nummer 1 geworden. Mit ihr wird anscheinend alles verhandelt, was an Fragen, Problemen und Schwierigkeiten aufkommt.

    Eine weitere Beobachtung aus dem laufenden zweiten Semester: Für die Projektaufgabe müssen die Studierenden ein Teilproblem lösen, für das ich ihnen in der Veranstaltung eine Technik zeige, die elegant und einfach ist, jedoch fortgeschrittene Programmierkonstrukte nutzt; es dauert aus Erfahrung eine Weile, bis man das verstanden hat. Was machen die Studierenden? Sie befragen die KI und lassen sich das Teilproblem auf eine andere, sehr übliche Weise lösen und kopieren den Code in ihre Projekte (was erlaubt ist). Einmal mehr erweist sich die KI als nützlich – zwar nicht in meinem Sinn (ich hätte mir gewünscht, sie hätten die Technik angewendet), sondern in einem pragmatischen Sinn: Getting things done.

    Zum ersten Mal in meinem Leben als Hochschullehrer weiß ich nicht, was meine Studierenden wissen, was sie verstanden haben und was nicht, womit sie hadern, was sie begeistert aufgenommen haben. Es gibt keine Fragen. Ich weiß nicht einmal mehr, welche Zumutungen meine Lehre für sie darstellt und wo die Sterne geleuchtet haben. Kurioserweise ist die Lehrevaluation besser als je zuvor ausgefallen – ganz entgegen meiner Intuition und meinem Erleben im Hörsaal. Das Lehren und Lernen ist ein sozial verarmter Raum geworden, es kommt kein Dialog zustande. Mir geht Resonanz verloren. Die KI hat sich dazwischen gedrängt.

    Denis Pijetlovic ist zuzustimmen: Auch wenn ich nicht unbedingt die Vertrautheit an die erste Stelle setzen würde, sondern die Nützlichkeit der KI, in beiden Fällen wirkt die KI in uns hinein, ohne dass sie in ihrem Hineinwirken Verantwortung übernehmen müsste (2025, S. 8). Sie setzt Rahmen, innerhalb derer geredet wird (ebd.) – und die bleiben mir als Lehrperson verborgen. Ja, wir brauchen eine neue Kultur der Frage (S. 9), aber in neuen Lehr/Lern-Arrangements. Wenn die KI zu Verstummungs- und Vereinzelungsverhältnissen führt, ist nichts gewonnen.

    Der Anspruch an solche neuen Lehr/Lern-Arrangements, die die KI mitdenken müssen, ist hoch – das zeigt der Beitrag von Gabi, der in aller Deutlichkeit vor Augen führt, wohinter wir nicht zurückfallen sollten: Wissen sollte in all seinen Dimensionen in Erscheinung treten, fachliche Reflexion und Expertise sollten Gegenstand einer bildenden Auseinandersetzung sein. Können, Üben, Wissen, Tun, Reflektieren, Verantworten: Das ist fachdisziplinär in Bezug zu setzen – sonst bleibt das alles, im wahrsten Sinne des Wortes, bezugs- und inhaltslos.

    Im kommenden Semester werde ich den Versuch starten, die Verstummungs- und Vereinzelungsverhältnisse aufzubrechen: Die KI soll uns mal zeigen, was sie kann – und dann werden wir ihre Werke analysieren und mit den Ergebnissen arbeiten, um unser Lernen und unsere Programme zu gestalten und zu reflektieren. Ich hoffe, das bringt uns alle wieder ins Gespräch, in einen Austausch. In meiner Vorstellung brummt es dann mehr als je zuvor im Hörsaal – und das Selberdenken wird ein großer Spaß! Und das Selbermachen! Über die KI werden wir manchmal staunen, manchmal lachen. Aber es brummt. Wir reden miteinander und diskutieren. Und Fragen gibt es zuhauf!

    Herzlichst,
    Dominikus Herzberg

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert