Die Nutzung von ChatGPT untergräbt menschliche Reflexivität und wissenschaftliche Verantwortung – so der Titel und die Kernbotschaft von Dirk Lindebaum und Peter Fleming, beide in der Management-Forschung tätig. Der Beitrag „ChatGPT undermines human reflexivity. Scientific responsibility and responsible management research“ ist im British Journal of Management erschienen (online kann man hier darauf zugreifen).
Die Autoren wenden sich in ihrem aktuellen Beitrag gegen die derzeit verbreitete Hoffnung, dass generative Künstliche Intelligenz (KI) wie ChatGPT in der Wissenschaft vor allem Vorteile bringt und insbesondere die Effizienz in akademischen Tätigkeiten erhöht. Sie warnen vor der zunehmenden Bereitschaft (oder gar Aufforderung), generative KI einzusetzen, um Forschungsanträge und wissenschaftliche Artikel zu schreiben oder Reviews zu verfassen und Lehrentwürfe zu gestalten. Lindebaum und Fleming sprechen zunächst für ihre Disziplin (die Managementforschung), aber ich denke, die Ausführungen können fachübergreifend zum Nachdenken und Diskutieren anregen.
In der Argumentation der Autoren spielt der Begriff der Reflexivität eine zentrale Rolle. Dass Menschen (selbst-)reflexiv sein und Urteilskraft entwickeln können, so die Annahme, liegt (auch) an ihrer Körperlichkeit und der Fähigkeit zur Emotionalität. Reflexive Entscheidungen seien eher langsam, dafür oft neu, unerwartet, unvorhersehbar. Maschinen dagegen (also auch KI) verhalten sich blind gegenüber den jeweils herrschenden personalen, sozialen, kulturellen und historischen Bedingungen; sie arbeiten wahrscheinlichkeitsgesteuert und können zwischen wahr und falsch nicht unterscheiden. Im Text arbeiten Lindebaum und Fleming heraus, warum ihrer Ansicht nach diese Unterschiede dazu beitragen, dass die Nutzung von generativer KI im Wissenschaftsbereich die (wissenschaftlich notwendige) Reflexivität und Verantwortung (im Sinne von: wer ist für was gegenüber wem verantwortlich?) untergrabe.
Zu Beginn des Beitrags fragen sich die Autoren, warum Hollywood Schauspieler und Drehbuchautorinnen gegen den Einsatz von KI votieren, (Sozial-)Wissenschaftler hingegen nicht. Am Ende des Textes plädieren sie dafür, die Bewunderung der (vermeintlichen) Potenziale generativer KI (in der Wissenschaft) zu stoppen und sich stattdessen (wieder) darauf zu besinnen, was KI mit uns macht, wie z.B. ChatGPT unsere Beziehung zu Wissen und unsere Verantwortung gegenüber der Fachgemeinschaft und Gesellschaft fundamental verändert. Die Verknüpfung von Reflexivität und Verantwortung sollte, so Lindebaum und Fleming, im Fokus der Debatten rund um generative KI stehen, weniger Dinge wie Objektivität, Genauigkeit oder Kreativität: „Appreciating that nexus also means slowing down rather than accelerating the research process through ChatGPT to make space for contemplation and moral conversation“ (Lindebaum & Fleming, 2023, p. 9).
Was die Autoren hier schreiben, dürfte nicht dem gegenwärtigen Mainstream entsprechen. Und es ist kaum vorstellbar, dass sich das, was sich seit einem Jahr in Sachen KI im Kontext Forschung und Lehre tut, irgendwie zurückdrängen lässt. Im Gegenteil steigt der Druck auf Hochschulen, generative KI auszuprobieren, produktiv einzusetzen und Studierende darin zu unterstützen, mit diversen KI-Anwendungen umzugehen – verantwortungsvoll umzugehen, wie alle beteuern. Das sagt sich recht einfach; in der Umsetzung empfinde ich das als schwierig: Wie kommt man diesen beiden Ansprüchen angemessen nach?
Ich finde Texte wie den von Lindebaum und Fleming wichtig: Man muss nicht jeden Satz teilen, aber es lohnt sich, die Fragen und Themen, die sie aufwerfen – hier prägnant in den Begriffen bzw. Konzepten Reflexivität und Verantwortung gebündelt –, in das eigene Entscheidungsverhalten mit aufzunehmen, sich darüber auszutauschen und nach Strategien zu suchen, wie man die, für mich im Moment noch widersprüchlich wirkenden, Anforderungen bewältigen kann: zum einen uns und andere auf die Zukunft vorzubereiten und zum anderen unsere Verantwortung als Lehrpersonen und Forscher ernst zu nehmen.