Telemedicus

, von

Robotik und Recht: Interview zur Roboterethik

Vieles von dem, was man sich früher nur in Science-Fiction-Romanen vorstellen konnte, ist mittlerweile Realität – oder wird es wahrscheinlich bald werden. Intelligente Geräte erobern unseren Alltag, Roboter können immer komplexere Aufgaben übernehmen.

Das stellt sowohl Philosophen als auch Juristen vor neue Herausforderungen: Ist das, was technisch möglich ist, auch wünschenswert? Wer trägt die Verantwortung für intelligente Maschinen und Algorithmen? Der Hersteller, der Anwender – oder der Roboter selbst? „Vielleicht müssen wir ein neues Konzept von Verantwortung entwickeln“, so Dr. Janina Sombetzki, Philosophin an der Christian-Albrechts-Universität zu Kiel.
Frau Dr. Sombetzki, wohin führen diese technologischen Entwicklungen? Drohen uns vergleichbare Folgen wie in der Industrialisierung, in der immer mehr Arbeitnehmer durch Maschinen ersetzt wurden?

Ich glaube, es ist sehr viel Hype und Panikmache dabei, aber wenn es tatsächlich zu einer Art post-industriellen Revolution kommen sollte, dann längst nicht in dem radikalen Ausmaß, in dem die eigentliche Industrielle Revolution damals verlaufen ist. Ob wir im Büro sitzen und unsere Arbeit mit einer Schreibmaschine, einem Computer oder einem automatischen Greifarm verrichten, das ist kein derartiger Bruch mit traditionellen Lebensweisen wie das damals in der Industriellen Revolution war. Und zugleich geschehen diese Entwicklungen nicht von heute auf morgen, sondern über eine längere Zeitspanne hinweg. Das heißt, dass die Handlungssubjekte – und das sind am Ende des Tages die Menschen – sehr viel steuern können. Und man sollte Überlegungen darüber anstellen, was wünschbar ist. Nicht nur was machbar, was finanziell machbar ist, sondern was vor allem wünschbar ist.

Gerade in heiklen Bereichen wie in der Medizin oder im Militär wird immer mehr Verantwortung an Roboter abgegeben. Halten Sie das für problematisch?

Es gibt sehr viele Bereiche der menschlichen Nähe, Nahbereiche des Menschen, in denen wir sehr sensibel darauf regieren, wenn wir mit Maschinen konfrontiert werden. Ich halte es dann für problematisch, wenn die Menschen, die in diesen Bereichen mit Maschinen konfrontiert werden, damit ein Problem haben. Wenn wir beispielsweise von medizinischen Servicerobotern reden, dann ist der Einsatz dieser Roboter dann problematisch, wenn die Patienten sich im Umgang mit diesen Robotern unwohl fühlen oder das Gefühl haben, sie werden schlechter behandelt als von Menschen. Aber das ist kein kategorielles, kein generelles Problem, würde ich sagen.

Es liegt also vor allem an den Menschen, Roboter verantwortungsvoll herzustellen und einzusetzen. Isaac Asimov hat in seinen Robotergeschichten drei „Robotergesetze“ entwickelt. Können wir diese als Grundlage nehmen, um Roboter mit moralischen Werten auszustatten?

Es hört sich so einfach an: Man denkt sich ein Set von Kriterien, wie diese drei Asimov’schen Robotergesetze, die Zehn Gebote, die Goldene Regel oder den Kategorischen Imperativ. Dann implementiert man diese Regeln in einen Roboter und dieser handelt einfach danach. Aber auch aus Filmen wie „I Robot“, in denen man genau das versucht hat, wissen wir, dass diese Regeln miteinander konfligieren können. Es ist eine Sache, sich eine Liste an Regeln oder Gesetzen oder Prinzipien auszudenken und eine ganz andere Sache, wie in einer konkreten Situation entschieden werden soll, nach welchem dieser Gesetze man handelt. Das kann auch für Menschen ein Problem sein.

Das ist immer dann ein Problem, wenn man keine Metaregel hat, die einem vorgibt, welche der zugrundeliegenden Regeln in einem bestimmten Kontext wichtiger ist. Und selbst wenn das der Fall ist, kann es Situationen geben, in denen man in ein Dilemma gerät, in denen die Regeln nicht einwandfrei funktionieren oder die Situation nicht eindeutig lesbar ist. Das Problem von diesen Regelsets ist, dass so etwas wie ein gesunder Menschenverstand fehlt, eine Art Phänomensensibilität, die Menschen mitbringen, um in einem bestimmten Moment zu entscheiden, welche Regel die wichtigere ist oder wann auch mal Regeln gebrochen werden müssen.

Die Roboter von heute sind ja noch ziemlich determiniert. Doch mit verbesserter Technik wird es wahrscheinlich bald Roboter geben, die weitgehend autonom und sogar kreativ handeln können. Ab wann sind diese Roboter für sich selbst verantwortlich?

Zunächst einmal glaube ich nicht, dass Autonomie und Determination sich gegenseitig ausschließen. Autonomie heißt gerade nicht, dass man durch nichts mehr determiniert ist. Autonomie heißt, zumindest in der Roboterethik, in einem ersten Schritt, in einer Negativdefinition, dass man nicht durch äußere Zwänge bestimmt ist. In einem zweiten Schritt könnte man sagen, stattdessen ist man durch interne Faktoren determiniert. Bei Menschen sind diese internen Faktoren meistens irgendwelche Handlungsgründe, die wir uns durch Erziehung oder anderweitig durch Sozialisation angeeignet haben. Bei Robotern können es alle möglichen Dinge sein, die auch programmiert sind, die sie in ihrem Handeln determinieren. Und trotzdem würde man sagen, dass ein Roboter, der nach „selbstgesetzten“, einprogrammierten Kriterien funktioniert, auch in einem gewissen Rahmen autonom handelt, solange er nicht von außen ferngesteuert wird.

Es würde mir schwer fallen, auf einen Punkt einer Skala zu deuten und zu sagen, ab jetzt sind Maschinen moralische Akteure, die in der Lage sind, vollständig verantwortlich zu handeln. Vielleicht wird das niemals möglich sein. Ich glaube, wir sollten eher überlegen, wie wir unser Konzept von Verantwortung an dieses graduelle Konzept von Autonomie anpassen können. Vielleicht liegt auch schon ab einem sehr geringen Level an Autonomie ein ganz rudimentäres, minimalistisches Verständnis von Verantwortlichkeit vor. Und das steigt, je mehr Autonomie in diesem „deterministischen“ Sinne diese Maschinen haben.

Stellen wir uns beispielsweise einen Hammer vor. Ein Hammer verfügt überhaupt nicht über Autonomie, der wird von einer Hand geführt, dem ist auch nicht wichtig, auf welchen Nagel er drauf haut. Ein Gewehr mit Kindersicherung verfügt auch noch nicht wirklich über Autonomie, auch das muss noch von jemandem geführt werden. Ein Autopilot hingegen verfügt schon über so viel Autonomie in dem Sinne, dass er nicht von außen gesteuert wird wie eben besagter Hammer oder besagtes Gewehr mit Kindersicherung. Diese Beispiele stammen von zwei Autoren, Wallach und Allen, die sagen, dass sich dieser Autopilot im Bereich der „operational morality“ aufhält, also in einem wirklich ganz basalen Sinne als moralischer Akteur gelten kann. Das hat überhaupt nichts mit unserem komplexen und anspruchsvollen Verständnis von Verantwortlichkeit und Moralität zu tun. Aber wir würden alle intuitiv sagen, ein Autopilot ist irgendwie selbstständiger, autonomer als eben besagter Hammer. Eine Ebene weiter finden wir dann vielleicht Selbstschussanlagen, die mit bestimmten Kriterien ausgestattet sein müssen, die ihnen vorgeben, wann sie zu schießen haben und wann nicht. Vielleicht müssen wir einfach ein neues Konzept von Verantwortlichkeit entwickeln, das auch auf diese rudimentären Formen von Autonomie passt.

Wie könnte so ein Konzept aussehen? Kann man Roboter überhaupt in der gleichen Weise verantwortlich machen wie Menschen?

Zunächst würde ich sagen nein, natürlich können wir eine Maschine nicht in der gleichen Weise verantwortlich machen wie einen Menschen. Aber vielleicht geht es gar nicht darum, in Maschinen genau dieselben Eigenschaften oder Fähigkeiten hervorrufen zu wollen, über die wir glauben, dass Menschen darüber verfügen, wie etwa Willensfreiheit. Das sind alles sehr anspruchsvolle Fähigkeiten, die wir Menschen zuschreiben und die wir nicht empirisch belegen können. Vielleicht reicht es schon, funktional äquivalente Zustände und Fähigkeiten bei Robotern festzustellen, also das, was wir an ihnen äußerlich schon sehen können, weil genau das ausreicht, damit wir als Menschen in einer für uns angenehmen Weise mit ihnen interagieren können. Möglicherweise müssen wir von diesem sehr personenzentrierten, subjektzentrierten Bild der Verantwortung weg. Es gibt den Begriff der „Verantwortungsnetze“ oder „Verantwortungsnetzwerke“, der leider nicht von mir stammt, aber möglicherweise auf diese neu entstehenden hybriden Systeme aus Menschen und Robotern passt. Es geht darum, dass Verantwortung sozusagen dezentralisiert und als eher relationales Gefüge verstanden wird, das keinen festen Hauptakteur mehr kennt.

In der Rechtswissenschaft versucht man, diesen Haftungsfragen vor allem mit Sicherheitsvorschriften und Versicherungspflichten entgegenzutreten. Das geht vielleicht ein bisschen in diese Richtung.

Ja. Und ich kenne einen Ansatz, der vorschlägt, Roboter in der Weise verantwortlich zu machen, wie man juristische Personen für verantwortlich hält. Es geht eben nicht darum zu sagen, Roboter sind wie Menschen und deshalb müssen sie wie Menschen verantwortlich sein, sondern höchstens verfügen sie über funktional äquivalente Eigenschaften. Und trotzdem tun wir glaube ich gut daran, volle Verantwortung und genuine Moralität bei Menschen zu belassen.

Vielen Dank für das Interview.

Dr. Janina Sombetzki
Foto: Alle Rechte vorbehalten.

Dr. Janina Sombetzki forscht und lehrt am Philosophischen Seminar der Christian-Albrechts-Universität zu Kiel. Ihre Forschungsschwerpunkte liegen in den Bereichen Roboterethik, Verantwortungsforschung und Philosophische Anthropologie.

Das Interview fand im Rahmen der Diskussionsveranstaltung „Digitaler Salon – Fragen zur vernetzten Gegenwart“ zur Frage „Brauchen wir eine Roboterethik?“ am 28. August 2013 statt. Wir danken den Veranstaltern, dem Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) und NETZ.REPORTER von DRadio Wissen, dass sie uns dieses Interview ermöglicht haben.

Podcast zum „Digitalen Salon: Brauchen wir eine
Roboterethik?“

, Telemedicus v. 14.10.2013, https://tlmd.in/a/2648

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Newsletter

In Kooperation mit

Kommunikation & Recht

Hosting

Domainfactory