"Jetzt machen wir großartige Sprünge"
29. Mai 2018Seit ein paar Wochen ruckeln kleine gelbe Busse über das Gelände des weltbekannten Berliner Krankenhauses Charité. Ein paar hundert Meter vom Bundeskanzleramt entfernt. Ohne Fahrer. Die Fahrzeuge stoppen an Haltepunkten. Wer mutig ist, steigt ein. Die Busse lassen erahnen, was die weitere Kombination von Technik und Informatik bringen mag. Und Forschung im Bereich von "Künstliche Intelligenz", sagt der Maschinenethiker Oliver Bendel, macht derzeit "große Sprünge".
Am Dienstagabend lässt sich Angela Merkel (das Bild zeigt sie beim Besuch eines Startups vor wenigen Tagen in China) im Bundeskanzleramt briefen zum Thema "Künstliche Intelligenz" (KI). Experten und Regierungsvertreter sollen sich über das Thema austauschen, in Bälde soll es einen politischen Masterplan dazu geben.
"Beängstigend dominierendes Thema"
Für Bendel ist es höchste Zeit dafür, dass sich die Politik auf diesem Gebiet kundig macht und engagiert. Der 50-jährige gebürtige Ulmer ist studierter Philosoph und promovierter Wirtschaftsinformatiker und lehrt als "Informations- und Maschinenethiker" an einer Schweizer Hochschule. Bendel warnt davor, "Künstliche Intelligenz" noch als Avantgarde-Thema zu sehen. "Das geht ganz sicher alle an. Und zumindest durch die Medien sollte das Thema bei vielen angekommen sein." Für ihn als Spezialisten, sagt er im Gespräch mit der Deutschen Welle, sei das Thema derzeit "geradezu beängstigend dominierend".
Bendel würde bei Robotern mit künstlicher Intelligenz nicht von Geschöpfen sprechen, verwendet aber gelegentlich den Begriff "künstliche Kreaturen". Eine "starke Künstliche Intelligenz", die eine Maschine hervorbringt, die "denkt wie ein Mensch - oder auch ganz anders, mit ähnlich komplexen Ergebnissen", sei derzeit letztlich noch Vision. Und es sei "bislang nicht wirklich intelligentes, nicht wirklich moralisches Handeln", das Künstliche Intelligenz und Maschinenethik hervorbringen. Aber die Simulation davon. Zudem habe die Maschine weder Bewusstsein noch Selbstbewusstsein, "sie leidet nicht, sie empfindet nicht. Die Maschine ist und bleibt ein Ding."
Selbstfahrende Autos und die Moral
Dabei gingen autonome Maschinen – zum Beispiel das selbstfahrende Auto, wie es Tesla oder Daimler anstreben – entscheidend weiter als Automaten. Nicht bei allen diesen Maschinen ergäben sich sofort moralische Fragen, und "nicht alle sollten mit Moral ausgestattet werden". Gerade beim selbstfahrenden Auto fände Bendel das gefährlich. Denn selbstfahrende Autos sollten potenzielle menschliche Unfallopfer weder quantifizieren noch qualifizieren. Nach seiner Überzeugung wird es die Forschung auch nie hinbekommen, Maschinen oder Robotern "Bewusstsein, Empfindungs- oder Leidensfähigkeit" beizubringen.
Maschinenethiker Bendel sagt, er räume Maschinen eine bestimmte operationale Moral ein und spreche von "maschineller Moral oder moralischer Maschine". So wie die Künstliche Intelligenz die künstliche Intelligenz zum Gegenstand habe, habe die Maschinenethik die maschinelle Moral zum Gegenstand. "Vorher sind sie dumm, auch moralisch dumm und unzurechnungsfähig. Hinterher haben sie einfache Regeln, auch moralische Regeln. Aber keinen freien Willen." Und dann schubse man diese Maschinen "in die Welt hinaus".
Sicherheitsroboter im Silicon Valley
Nur Zukunftsmusik? Bendel hat mehrere moralische Maschinen gebaut. Und auch die selbstfahrenden Autos gibt es. Daran erinnern gelegentlich Medienberichte über Unfälle. Bendel nennt ein weiteres Beispiel, dem Besucher des Silicon Valley zufällig begegnen können – und das er aus informationsethischer Perspektive sehr kritisch sieht. In Palo Alto rollt seit einigen Jahren K5 durch die Shopping Mall, ein Sicherheitsroboter. "Jeder, der da shoppen geht, wird von ihm erfasst, analysiert, eingestuft." Und wenn K5 zum Schluss komme, die Person sei verdächtig, melde er das an die Zentrale. "Ich mag Roboter", sagt Bendel, "aber ich würde darüber nachdenken, den K5 zu verbieten."
Zukunftsmusik sind weitesthin noch Maschinen, die ihre Umwelt beobachten und dabei selbständig dazulernen, sich auch in ihrer maschinellen Moral eigenständig weiterentwickeln. Experimentell sei man da dran – "ich halte das für eine gefährliche Richtung, aber wir wollen dahin, wenn auch nur im Labor", sagt Bendel. Diese Moral könnte ganz anders funktionieren als die menschliche Moral - wenn sich denn Maschinen ganz andere Regeln setzten.
"Lasst weiterforschen!"
Nun lässt sich Merkel beraten. Und in vier Wochen debattiert der Deutsche Ethikrat bei seiner Jahrestagung zwei Tage lang über Künstliche Intelligenz. Gerade beim Ethikrat sieht Bendel Defizite. "Die ganzen Ethikräte sind doch vor allem aus der Beschäftigung mit Bioethik und Medizinethik entstanden." Man müsse sich fragen, ob dort ausreichend philosophische Ethiker mitarbeiteten und genügend Experten für Künstliche Intelligenz eingebunden seien. Schon die Stellungnahme zum Thema "Big Data", zur maschinellen Nutzung großer Menge von Daten, war für den Ethikrat im Jahr 2017 eine Herausforderung, wie Bendel findet.
Und Bendel empfiehlt Ethik-Experten und politischen Entscheidern nachdrücklich eine Unterscheidung zwischen Forschung und Entwicklung auf der einen Seite und Anwendung auf der anderen Seite. "Ich würde sagen: Lasst es laufen, lasst weiterforschen. Ich selbst würde diese gefährlichen Kreaturen im Labor herstellen. Wir brauchen diese Erfahrung, diese Entwicklung. Aber bei der Anwendung bin ich schon jetzt für bestimmte Verbote."
Ja, sagt er, die Forschung an künstlicher Intelligenz habe so richtig gerade erst angefangen. "Aus verschiedenen Gründen machen wir jetzt großartige Sprünge. Und wir müssen da mitspringen." Aber bei der Anwendung müsse man auf "mehr Striktheit" setzen. Schon jetzt.