„Es fühlt sich so an, als hätten viele Lehrende den ersten Schock, also den von generativer KI allgemein ausgehenden Schock inzwischen verarbeitet und sich in dieser neuen Realität irgendwie mit neuen Einverständniserklärungen und dem gelegentlichen Thematisieren von KI-Tools in ihrer Lehre eingerichtet. Mehr aber häufig auch nicht.“ Diese Diagnose stellt Isabella Buck in ihrem Beitrag mit dem Titel „Vom Werkzeug zum Teammitglied: Kollaborationskompetenz im KI-Zeitalter“. Lehrende, so Buck, seien „noch viel zu wenig darin geschult, KI-Tools als Kollaborationspartner zu betrachten, die Implikationen dieser partnerschaftlichen Zusammenarbeit mit KI für ihre Lehre zu begreifen“. Dazu gehöre auch, der KI als Kollaborationspartnerin „einen Vorschuss an Vertrauen“ entgegenzubringen, so wie das gegenüber einer menschlichen Kollegin der Falle sei: Da prüfe man auch „nicht alles, was sie macht“ – ansonsten könne man es ja direkt selbst tun.
Ob das Bild von der tendenziell KI-ignoranten Lehrperson an Hochschulen in der Gänze, teilweise oder in der Form eher nicht stimmt, kann ich nicht beurteilen. Da hat wohl jeder an Hochschulen eigene Erfahrungen und selten ein repräsentatives Bild. Einfacher fällt mir eine Positionierung im Hinblick auf einige Folgerungen, die Isabella Buck in ihrem Beitrag zieht: Dass KI bereits ein Element im menschlichen Beziehungsgeflecht ist, was auch vor Forschung, Studium und Lehre nicht Halt macht, kann kaum bestritten werden. Die daraus resultierende Aufforderung, sich jetzt und künftig mit den damit zusammenhängenden Rollen auseinanderzusetzen, teile ich ebenso. Als Anker zitiert Buck unter anderem einen Beitrag von Rafner et al. (2021), auf den ich in meinem Text zum Thema Deskilling vom Oktober 2023 (auf Seite 11) ebenfalls Bezug genommen hatte: Die dort diskutierten Möglichkeiten einer „hybriden Intelligenz“ halte ich nach wie vor für einen sinnvollen (ersten) Ansatzpunkt, um das Beziehungsgeflecht zu analysieren und zu gestalten, in das nun auch KI einzieht.
Insbesondere im ersten Teil des Beitrags stellt die Autorin informativ einige neue Systeme generativer KI vor, die deutlich machen, wie schnell Einschätzungen zur Nutzungsmöglichkeit von KI an Hochschulen wie auch zu Risiken (z.B. Verlust an sozialer Interaktion) immer wieder einer Anpassung unterzogen werden müssen. Vor meinem geistigen Auge sehe ich bei der Lektüre zum Beispiel interessante Möglichkeiten, KI-Systeme wie Perplexity Spaces beim forschenden Lernen einzusetzen – um nur ein Beispiel zu nennen. Das setzt, nebenbei bemerkt, allerdings immer auch voraus, dass Hochschulen Lehrpersonen die Nutzung solcher KI-Systeme technisch und rechtlich ermöglichen.
Ich kann mich vor diesem Hintergrund dem Aufruf einerseits anschließen, dass wir im Umgang mit KI proaktiver werden müssen: Wir brauchen an Hochschulen für KI einen offenen Experimentierraum, in dem wir Erfahrungen sammeln können, wie KI in der Zusammenarbeit mit Menschen in Forschungs-, Lehr- und Lernkontexten „funktioniert“, welche Wirkungen dabei entfaltet werden und wie KI unsere Kreativität in der Gestaltung von Hochschule anregen kann. Dazu gehört aber auch die Bereitschaft, wachsam für die zahlreichen Risiken und Grenzen von KI zu bleiben, über den Tellerrand des eigenen Hochschulkontextes hinauszublicken (z.B. in Sachen Energieverbrauch) sowie Abhängigkeiten von großen Technologie-Konzernen und deren Arbeitsweisen mit einzukalkulieren. Das hat aus meiner Sicht nichts mit einem „moralisch erhobenen Zeigefinger“ zu tun, wie Buck moniert, sondern das gebietet eigentlich eine wissenschaftliche Haltung. Bucks Postulat, Lehrpersonen ob ihrer bisherigen Ignoranz gegenüber KI zu schulen, „KI-Tools als Kollaborationspartner zu betrachten“ inklusive eines Vertrauensvorschusses analog zu vertrauensvollen Beziehung zwischen Menschen mag die großen Tech-Unternehmen freuen. Ob das in der geforderten Form vernünftig und im Sinne der Idee von Hochschulbildung ist, würde ich aber schon bezweifeln.