In einem Zeitungsinterview prophezeit der Rechtswissenschaftler Richard Susskind (hier), „dass den Menschen immer weniger Dinge bleiben, die ihnen Maschinen nicht abnehmen können“. Es werde künftig nur mehr sehr wenige Berufe geben, „für die Menschen besser qualifiziert sind als Maschinen“. Und „wenn fast alles, was wir können, auch von einer Maschine erledigt werden kann“, stelle sich die Frage: „Wieso sind wir hier?“
Ich habe vor wenigen Monaten, bezogen auf Künstliche Intelligenz (KI) in der Hochschule und Hochschullehre, eine ähnliche Frage formuliert, nämlich: Wozu sind wir hier (zum dazugehörigen Text geht es hier)? In diesem Beitrag hatte ich, anders als Susskind, nur einen Ausschnitt der Gesellschaft, eben Hochschulbildung, im Blick, aber das ist natürlich mit dem großen gesellschaftlichen Wandel, den Susskind thematisiert, auf das Engste verbunden. In diesem Text ging es mir vor allem darum, was den Menschen von der Maschine unterscheidet. Inzwischen stelle ich mir zunehmend eine andere Frage: Wie viel Maschine verträgt der Mensch? Lese ich Aussagen, wie die von Susskind, bestärkt mich das in meinem Eindruck, dass diese Frage an Relevanz gewinnen könnte.
Susskind schlägt im Interview vor, beim Durchdenken der Zukunft mit KI vor allem danach zu schauen, welche Bedürfnisse Menschen haben. Das finde ich einen wichtigen Impuls und denke, dass dazu auch psychologische Grundbedürfnisse gehören, wie sie zum Beispiel Deci und Ryan formuliert haben: soziale Eingebundenheit, Autonomie, Kompetenzerleben. Zieht man diese heran, könnte man bereits folgende Thesen aufstellen:
Es gibt beim Menschen Toleranzgrenzen für die Verträglichkeit von Maschinen; diese Grenzen werden überschritten, wenn Maschinen
(1) soziale Beziehungen von Menschen spürbar stören oder zerstören, sodass sie sich nicht mehr sozial eingebunden, nicht mehr gebraucht, nicht mehr wertgeschätzt fühlen.
(2) Menschen zu häufig in Situationen führen, die sie kaum oder nicht durchschauen und kontrollieren können, sodass sie sich nicht mehr als autonom erfahren.
(3) zu viele Kompetenzfelder besetzen und das Können von Menschen übertreffen, sodass sie zunehmend weniger eigene Könnerschaft erleben können.
Nun sehe ich im Zusammenhang mit KI ein viertes Grundbedürfnis, das die KI-Entwicklung nach meiner Einschätzung besonders sichtbar machen könnte: das Bedürfnis nach Echtheit. Wie komme ich darauf? Obschon wir nun ja schon länger die Möglichkeit haben, uns in virtuellen Räumen zu bewegen (in asynchronen und synchronen Kommunikationsräumen, virtuellen Realitäten, hybriden Umwelten) sowie alles und jedes auf Knopfdruck zu kopieren und daran zu partizipieren (Bilder, Musik, gestreamte Ereignisse), streben Menschen nach wir vor nach dem, was sie als echt erleben: Sie suchen Orte auf, an denen man anderen leiblich begegnet, sie wollen Personen leibhaftig sehen oder sprechen hören, suchen das Naturerlebnis, erfreuen sich am Einzigartigem, an Originalen und so weiter.
Sollte also Echtheit ein viertes psychologisches Grundbedürfnis sein, dann wäre die menschliche Toleranzgrenze für die Verträglichkeit von Maschinen wohl auch dann überschritten, wenn Maschinen
(4) Menschen das Gefühl geben, nur mehr in einer künstlichen Welt zu leben, in der man nicht mehr sagen kann, was echt und was maschinell generiert ist, in der die leibliche Begegnung, das Original und das Einzigartige zum Luxus werden.
Liebe Frau Reinmann,
Sie treffen m. E. den berühmten Nagel.
Alle, die wir uns mit dieser Thematik beschäftigen, sollten sich mit den Gedanken von Yuval Harari in „homo deus“ (2015) und Jiddu Krishnamurti in „network of thought“ (1981 – !) auseinander setzen; und gemeinsam hoffen wir, dass die Menschheit schneller und konsequenter ist als bei der Klimaveränderung.