Das Forum für den Europäischen Forschungsraum (bestehend aus europäischen Ländern und Interessenträgern aus Forschung und Innovation) hat Leitlinien für den Einsatz generativer KI in der Forschung entwickelt. Zielgruppe sind neben Forschenden auch Fördereinrichtungen und Forschungsorganisationen. Das Papier mit dem Titel „Living guidelines on the responsible use of generative ai in research“ ist online hier zugänglich.
Mit dem Hinweis könnte ich es belassen – es steht da ja alles auf knapp 12 Seiten. Allerdings: Mir persönlich geht es nach wie vor so, dass ich von der Rezeption englischer Texte am Ende doch mehr habe, wenn ich mich bemühe, die Inhalte (mindestens für mich selbst) zusammenfassend zu übersetzen, um im Prozess dieser Übersetzung genauer zu verstehen, was gemeint ist und was es für meine Arbeit bedeutet. Daher also doch noch ein Blick in einige Details des Papiers.
Ausgangspunkt ist, dass generative KI massiven Einfluss auf die Forschung hat – das ist inzwischen Konsens. Das Potenzial ist groß (man mag es schon gar nicht mehr beschreiben, weil es ja allseits bekannt zu sein scheint): KI, so heißt es in dem Papier, kann wissenschaftliche Entdeckungen beschleunigen und Forschung effektiver machen; KI kann bei der Erstellung von Texten in mehreren Sprachen helfen (wichtig für alle, deren Erstsprache nicht Englisch ist), Textzusammenfassungen aus umfangreichen Quellen erstellen und einen breiten Wissensbestand automatisch abrufen. Auch die bekannten Risiken werden benannt: solche, die auf technische Einschränkungen von KI-Systemen zurückzuführen sind, und solche, die mit der Verwendung derselben zu tun haben. Weitere Risiken für die Forschung in Europa leiten die Autoren aus dem proprietären Charakter vieler KI-Systeme ab (z.B. mangelnde Offenheit, Gebühren für den Zugang, Verwendung von Eingabedaten) oder der monopolähnlichen Stellung einiger Unternehmen.Kurz:In vieler Hinsicht können KI-Systeme die Integrität der Forschung beeinträchtigen und/oder zu schlechten wissenschaftlichen Praktiken führen.
Nun gibt es bereits zahlreiche Leitlinien, die sich diesen Herausforderungen stellen; das Papier listet am Ende einige von diesen auf. Es zeichnen sich allerdings Gemeinsamkeiten ab. Diese zeigen sich laut der Autoren darin, dass ein paar zentrale Prinzipien hinter aktuellen Leitlinien für den verantwortungsvollen Einsatz generativer KI in der Forschung stehen, nämlich: Zuverlässigkeit, Redlichkeit, Respekt und Verantwortung. Was heißt das?
Zuverlässigkeit bei der Sicherstellung der Qualität von Forschung. Dazu gehört zum Beispiel, KI-generierte Inhalte zu überprüfen oder auf Vorurteile und Ungenauigkeiten zu achten, die mit dem KI-Einsatz einhergehen können.
Redlichkeit bei der Entwicklung, Durchführung, Überprüfung, Berichterstattung und Kommunikation von Forschungsergebnissen. Dazu gehört vor allem, offen zu legen, dass und wie generative KI verwendet wurde.
Respekt vor anderen Forschenden, vor den an der Forschung Beteiligten, vor der Gesellschaft und Umwelt. Dazu gehört, Grenzen und Auswirkungen des KI-Einsatzes zu berücksichtigen sowie Privatsphäre, Vertraulichkeit und das Recht am geistigen Eigentum zu wahren.
Verantwortlichkeit für die Forschung von der Idee bis zur Veröffentlichung und allen damit zusammenhängenden Aktivitäten (also auch Lehre). Untermauert wird das durch den Begriff „human agency“, also die menschliche Handlungsfähigkeit und Selbstbestimmung.
Diese Prinzipien haben große Ähnlichkeit zu dem, was man auch schon vor KI als Standards für die Forschung bezeichnet hat, würde ich sagen – vor allem, wenn versucht wurde und wird, alle möglichen Forschungsgenre abzudecken. In dem Fall nämlich, muss man ein relativ hohes Abstraktionsniveau für die Formulierung von Forschungsstandrads wählen (exemplarisch in Bezug auf Design-Based Research siehe z.B. hier).
Welche konkreten Empfehlungen gibt nun das Papier der EU forschenden Personen? Die Empfehlungen werden zu sechs Punkten geordnet:
1. Für den wissenschaftlichen Output verantwortlich bleiben. Das heißt: Forschende sind für die Integrität der Inhalte verantwortlich, die von oder mit Unterstützung von KI-Systemen generiert werden. Notwendig sind eine kritische Haltung bei der Nutzung der von generativer KI erzeugten Ergebnisse sowie Kenntnisse über die Grenzen von KI-Systemen (z.B. Verzerrungen, Halluzinationen, Ungenauigkeiten). KI-Systeme sind weder Autoren noch Co-Autoren, denn Autorenschaft impliziert Handlungsfähigkeit und Verantwortung, die beim forschenden Menschen liegen. Und natürlich dürfen bestehende Daten mit generativer KI nicht gefälscht, verändert oder manipuliert werden.
2. Generative KI transparent nutzen. Das heißt: Forschende beschreiben, welche generativen KI-Systeme sie in welcher Form in ihren Forschungsprozess einsetzen. Falls relevant, machen Forschende Prompts und Ergebnisse im Sinne der Prinzipien offener Wissenschaft frei verfügbar. Forschende berücksichtigen die stochastische (zufällige) Natur generativer KI-Systeme und achten darauf, dass ihre Ergebnisse robust sind und nachvollzogen werden können.
3. Auf Datenschutz, Vertraulichkeit und geistiges Eigentum achten, wenn sensible oder geschützte Informationen mit KI-Systemen geteilt werden (könnten). Das heißt: Forschende machen sich bewusst, dass generierte oder hochgeladene Eingaben für andere Zwecke verwendet werden könnten (z.B. für das Training von KI-Modellen); daher schützen sie unveröffentlichte oder sensible Werke. Sie achten darauf, keine personenbezogenen Daten Dritter an generative Online-KI-Systeme weiterzugeben, oder tun dies nur in abgesicherten Ausnahmefällen.
4. Beim Einsatz generativer KI die geltenden nationalen, EU- und internationalen Rechtsvorschriften befolgen. Das heißt: Forschende achten auf mögliche Plagiate (Text, Code, Bilder usw.), wenn sie KI-generierte Inhalte verwenden, respektieren die Autorenschaft anderer und zitieren deren Arbeit. Sie achten darauf, dass KI-generierte Inhalte personenbezogene Daten enthalten können und sind für den Umgang mit diesen Daten verantwortlich.
5. Forschende lernen kontinuierlich, wie sie generative KI-Systeme optimal einsetzen und bilden sich entsprechend weiter. Das heißt: Forschende haben im Blick, dass sich generative KI-Systeme rasch entwickeln, und versuchen, auf dem Laufenden zu bleiben und sich mit anderen auszutauschen.
6. Forschende verzichten auf den Einsatz generativer KI-Systeme in sensiblen Bereichen, die sich auf Dritte auswirken können (z.B. Peer-Review, Gutachtertätigkeit). Das heißt: Forschende vermeiden das Risiko, andere unfair zu behandeln oder zu bewerteten, indem sie auf KI-Systeme verzichten, die immer noch Grenzen haben (z.B. „Halluzinationen“, Vorurteile), und schützen unveröffentlichte Originalarbeit anderer davor, dass sie in KI-Modelle aufgenommen werden.
Die Empfehlungen für Forschungsorganisationen und Fördereinrichtungen gehen dahin, die Forschenden zum einen darin zu unterstützen, den skizzierten Empfehlungen auch nachkommen zu können (etwa durch entsprechende technische Infrastrukturen und Beratung), und zum anderen zu kontrollieren, ob diese eingehalten werden.
Chancen wie auch Risiken im Zusammenhang mit der individuellen (langfristig auch kollektiven) Kompetenzentwicklung (Stichwort: Deskilling) werden übrigens nicht erwähnt: Das scheint einfach immer noch kein relevantes Thema zu sein – mal abgesehen von der Stellungnahme des Deutschen Ethikrats (siehe hier). Mich wundert das, denn: Wenn menschliche Handlungsfähigkeit, Selbstbestimmung und Selbstverantwortung doch so zentral sind (wie in den EU-Leitlinien nochmal betont), dann setzt das doch auch voraus, dass wir im Blick behalten, was wir als Forschende wissen und können. Das gilt aus meiner Sicht auch (oder gerade) dann, wenn Tätigkeiten bzw. Aufgaben zunehmend an generative KI delegiert werden (können).
Betrachtet man die genannten Prinzipien (bzw. Standards) und die hier formulierten Empfehlungen für Forschende, lässt sich zudem feststellen, dass es zahlreiche Überschneidungen mit den Leitlinien gibt, die Hochschulen inzwischen vielfach auch ihren Studierenden und Lehrenden an die Hand geben (auch bei uns an der UHH, siehe dazu hier). Ich deute das mal als Indiz, dass wir doch immer noch einen engen Nexus zwischen Forschung und Lehre an unseren Universitäten oder generell, an unseren Hochschulen, haben. Ein gutes Zeichen, oder?