Der Thementeil der aktuellen Ausgabe von Forschung und Lehre blickt ins Jahr 2030 und fragt nach Entwicklungen in der Wissenschaft. Es ist klar, dass sich da die Digitalisierung stark nach vorne drängt. Unter den Beiträgen findet sich ein interessantes Interview mit dem Informatik Professor Gerhard Lakemeyer, der zu den Chancen und Risiken technischer Systeme, die selbständig entscheiden und handeln (also zur Künstlichen Intelligenz – KI) befragt wird. Lakemeyer weist im Interview mehrfach auf den großen Mangel an Forschung und Lehre zur Ethik hin: Die Auseinandersetzung mit ethischen Fragen sei ganz zentral für die KI – in der Ausbildung ebenso wie in der Forschung, die entsprechend interdisziplinär sein müsse. Menschen z.B. setzen sich intuitiv über Regeln hinweg, wenn es einem höheren Zweck dient – Maschinen tun genau dies nicht. Menschen kommen auch, nach erster Orientierung, in Situationen irgendwie zurecht, die sie noch nie erlebt haben – für Maschinen sei das fast unmöglich. Weniger das Wegfallen bisheriger Berufe bereitet Lakemeyer die größte Sorge (hier müsse die Politik allerdings endlich aktiv werden), sondern das Aufkommen automatischer Waffensysteme, mit denen Menschen einen immensen Schaden anrichten können: „Wenn bspw. Autonome bewaffnete Drohnen in falsche Hände geraten, dann gute Nacht“.