Telemedicus Logo
Weiterempfehlen Drucken

Dieser Artikel ist Teil der Artikelreihe „Künstliche Intelligenz”.

Spätestens Mady Delvaux hat die Diskussion angestoßen, ob das bestehende Produkthaftungsregime für die mit künstlicher Intelligenz versehenen Produkte ausreichend ist. In einer von ihr initiierten Resolution des Europäischen Parlaments sprachen sich Anfang 2017 396 Abgeordnete für Folgendes aus: „to explore, analyse and consider the implications of all possible legal solutions”, sowie „creating a specific legal status for robots in the long run”. Der Begriff „robot” ist hier als Synonym für Systeme auf Basis künstlicher Intelligenz zu verstehen.

Die Resolution warf also zunächst einmal die Frage auf, ob denn die bisher bestehenden Haftungsregime in der EU ausreichend sind für die bestehenden, aber vor allem für die in der Zukunft vermuteten Eigenschaften von künstlicher Intelligenz. Die Mitglieder des Europäischen Parlaments nahmen zumindest einen Änderungsdruck in der Zukunft an, dem sie nach dem oben zitierten Vorschlag mit einem generischen rechtlichen Status für robots – mit künstlicher Intelligenz versehene Systeme – begegnen wollen. Aus deutscher Sicht bedeutet das in einer Nussschale nicht weniger als die Schaffung einer dritten, rechtlichen relevanten Person neben der natürlichen (der Mensch in seiner Rolle als Rechtssubjekt) und der juristischen Person (Personenvereinigung oder Zweckvermögen mit eigener Rechtspersönlichkeit, am bekanntesten: GmbH oder AG).

Ein großer Wurf also, den die vermeintlich so disruptiven Entwicklungen der künstlichen Intelligenz sogar auf Ebene des Europäischen Parlaments auslösen. Es bietet sich ohne Frage an, die Situation einmal umfassend zu betrachten, um die Entscheidung des Europäischen Parlaments – die übrigens bisher von der Kommission nicht aufgenommen wurde – entsprechend bewerten zu können.

Ausgangspunkt: System der Produkthaftung in der EU


Ausgangspunkt solcher Betrachtungen kann nur das bestehende System der Produkthaftung in der EU sein, das seit 1986 durch die Produkthaftungsrichtlinie 85/374/EWG geprägt ist. Bis auf wenige, hier nicht relevante Ausnahmen, ist die Richtlinie in allen Mitgliedsstaaten der EU umgesetzt. Im Kern schafft die Richtlinie eine verschuldensunabhängige Haftung des Herstellers eines Produktes oder seiner Komponenten gegenüber jedermann auf Schadenersatz.

Der geschädigte Anspruchsteller muss den Fehler nachweisen, den Schaden und deren kausale Verbindung.

Der größte Stolperstein auf dem Weg zu Schadenersatzleistungen ist regelmäßig die Beweislast des Geschädigten beim Nachweis, dass ein Kausalzusammenhang zwischen dem Produktfehler und dem Schaden besteht. Der Europäische Gerichtshof hat dies durch die Akzeptanz nationaler Vorschriften, die dem Geschädigten dabei helfen, diesen Nachweis zu erbringen, erheblich erleichtert. Darüber hinaus hat er den Fehlerverdacht eines Produktes dem Fehler gleichgestellt.

Diskussionen über eine Haftung für künstliche Intelligenz


Diese in Deutschland im Produkthaftungsgesetz (ProdHaftG) umgesetzte Richtlinie bildet derzeit den gesetzlichen Rahmen, an dem sich die Diskussionen über eine Haftung für künstliche Intelligenz entzünden. Ausgangspunkt der Überlegungen vieler Beiträge ist dabei eine angenommene Black Box der künstlichen Intelligenz dahingehend, wie das System auf seine Lösung gekommen ist. Eine fehlende Transparenz der Lösungswege des Systems und die fehlende Möglichkeit eines reverse engineering der durch das System entwickelten Lösungen bilden die Ausgangspunkte der Überlegungen für die Notwendigkeit eines eigenen Haftungsregimes für künstliche Intelligenz. Hinzu tritt die Rolle von – teilweise Unmengen an – Daten in der den Systemen vermeintlich eigenen Lernkurven.

Beide Aspekte führen in der Wahrnehmung der Debatten um das Thema der Haftung für künstliche Intelligenz zur initialen Annahme einer durch den Hersteller nicht mehr kontrollierten und kontrollierba-ren, faktisch selbständigen Weiterentwicklung der ursprünglichen Systeme hin zu einem unbeabsichtigten, zumindest aber nicht geplanten Zustand.

Diese Annahme wird argumentativ aufgegriffen mit der These, der Hersteller könne für die durch die künstliche Intelligenz erreichten Zustände ab einem bestimmten Grad haftungsrechtlich nicht mehr verantwortlich sein; diese lägen weit außerhalb der ursprünglich geplanten Kondition.

Kritische Würdigung


Ich möchte beide Thesen zum Anlass einer kritischen Würdigung nehmen.

In einem ersten Schritt lässt sich spätestens auf Basis der bisherigen Artikel in der Reihe auf Telemedicus über künstliche Intelligenz deutlich ableiten, dass Autonomie des Lernens in Systemen mit künstlicher Intelligenz nicht existiert, sondern mathematische Formeln und Algorithmen hohe Automatisierungsgrade abbilden. Eine eigenständige Weiterentwicklung eines Systems existiert schlicht nicht. Auch die Google AI wird weiterhin reihenweise GO-Spieler schlagen, darin möglicherweise unendlich gut werden, aber keinen eigenen, weiteren Einsatzzweck generieren.

Neben diesem ersten Schritt ist auch die Frage nach der Abhängigkeit von annotierten Daten in den verschiedenen subsymbolischen Lernverfahren sowie die Datenqualität auch in symbolischen Verfahren vertieft zu betrachten. Anknüpfungspunkt der Überlegungen mancher Debattenbeiträge ist die Frage nach der Verantwortlichkeit des Herstellers künstlicher Intelligenz – oder auch des späteren Betreibers – für die Qualität der seine Systeme fütternden Daten.

Hier ist eine kritische Würdigung der Überlegungen ausgehend von einem tieferen Verständnis des bestehenden Rechts erforderlich, was einen Einstieg in den Fehlerbegriff des ProdHaftG voraussetzt.

Fehlerbegriff des ProdHaftG

§ 3 ProdHaftG definiert ein Produkt dann als fehlerhaft,

wenn es nicht die Sicherheit bietet, die unter Berücksichtigung aller Umstände, insbesondere

a) seiner Darbietung,
b) des Gebrauchs, mit dem billigerweise gerechnet werden kann,
c) des Zeitpunkts, in dem es in den Verkehr gebracht wurde,

berechtigterweise erwartet werden kann.

Die daraus entstehende Schadenersatzpflicht ist im Übrigen ausgeschlossen, wenn nach § 1 Abs. 2 S. 5 ProdHaftG

der Fehler nach dem Stand der Wissenschaft und Technik in dem Zeitpunkt, in dem der Hersteller das Produkt in den Verkehr brachte, nicht erkannt werden konnte.

Kombiniert man beide Vorschriften, lässt sich unschwer erkennen, dass Maßstab für die Sicherheit eines Produktes zum Zeitpunkt seiner Inverkehrgabe der Stand von Wissenschaft und Technik ist. Dieser Standard muss vom Hersteller herangezogen werden, um die berechtigte Sicherheitserwartung an das Produkt zu erreichen.

Verantwortlichkeit gemäß Stand der Technik


Angewandt auf die Fragestellung nach der Verantwortlichkeit für den Umgang mit „unreinen“ Daten in subsymbolischen Lernverfahren oder symbolischen Entscheidungsmustern lässt sich rechtlich hier also eindeutig festhalten, dass der Hersteller diese Probleme erkennen und nach den verfügbaren Methoden lösen muss, bevor er das Produkt in Verkehr gibt. Es muss demnach eine Form von Validierung von Daten geben, eine Überprüfung von Ergebnissen und eine Eigenkontrolle des Systems; entspricht das dem Stand von Wissenschaft und Technik, ist der Hersteller nach heutigem Stand in den allermeisten Staaten der EU nicht für das Entwicklungsrisiko des mit künstlicher Intelligenz versehenen Produkts haftbar zu machen. Umgekehrt betrachtet geht die Rechtsordnung bereits heute da-von aus, dass der Hersteller alle Möglichkeiten ausschöpft, um sein Produkt im Rahmen des objektiv Erwartbaren abzusichern.

Die bisherigen Feststellungen führen zu der nächsten Voraussetzung der Forderung nach einem neuen Haftungsregime für künstliche Intelligenz, der fehlenden Haftung des Herstellers für Weiterentwicklungen seines Systems außerhalb seiner ursprünglichen Planungen.

Die Produkthaftungsrichtlinie bietet für diese These keine Anhaltspunkte. Vielmehr ist alleine entscheidend, wie sich aus einer retrospektiven Betrachtung die Sicherheit des Produkts zum Inverkehrgabezeitpunkt gemessen am verfügbaren Stand von Wissenschaft und Technik bewerten lässt. Vereinfacht gesagt: kann der geschädigte Anspruchsteller nachweisen, dass das Produkt nicht dem entsprach, was möglich war und hieraus eine Unterschreitung des Sicherheitslevels entsprang, ist der Nachweis gelungen. Inwiefern der Hersteller die Weiterentwicklung der KI vorhersehen konnte oder hätte einkalkulieren müssen, ist für die Betrachtung irrelevant. Relevant ist lediglich, ob der Geschädigte nachweisen kann, dass es technische Möglichkeiten zur Begrenzung eben der eingetretenen Fehlentwicklung gegeben hätte, als das Produkt in Verkehr gegeben wurde. Und auch hier ist vereinfacht gesehen sehr eindeutig, dass der Hersteller nicht jede mögliche Weiterentwicklung vorhersehen, aber im Zweifel alle nicht gewollten programmiertechnisch ausschließen kann.

Damit reduziert sich die Haftung der Hersteller für KI auf Fragen der Darlegungs- und Beweislast. Das ist eine Situation, die bereits seit Geltung der Richtlinie in vielen Fällen Raum greift und keine Neue-rung durch KI darstellt.

Hersteller in der Pflicht


Die Einführung einer eigenen Rechtsperson für KI verknüpft mit einer Pflichtversicherung – denn nur dann macht eine eigene Haftung der KI Sinn – ist damit derzeit nicht notwendig. Deutlich relevanter erscheint hier der entsprechende Umgang der Hersteller – und vor allem auch Importeure – solcher Systeme mit KI mit den bestehenden produkthaftungsrechtlichen Regularien und deren Umsetzung in der Entwicklung der Produkte. Hier kommt es entscheidend darauf an, den Stand von Wissenschaft und Technik bei der Risikobeurteilung des eigenen Produktes anzuwenden und entsprechend über die Serienzeit nachzuhalten. Der reine Verweis auf die Unkalkulierbarkeit entsprechender Systeme wird nach derzeitiger Rechtsordnung nicht ausreichen.


Philipp Reusch
Foto: Alle Rechte vorbehalten
Philipp Reusch ist Gründungssozius von reuschlaw Legal Consultants. Er berät schwerpunktmäßig nationale und
internationale Industrieunternehmen aus der Maschinenbau-, Automobilzulieferer- und Konsumgüterindustrie. Philipp Reusch ist Experte im Bereich (internationaler) Produkthaftung, Produktsicherheit, Compliance- und Rückrufmanagement. Weitere Schwerpunkte seiner anwaltlichen Beratungstätigkeit liegen im Versicherungsrecht, Datenschutz und Cyber Security sowie in der Prozessführung.

Der Lehrbeauftragte für Produkthaftung und Produktsicherheit an der RWTH Aachen ist Autor zahlreicher Fachpublikationen. Er wurde von 2009 bis 2018 von „Best Lawyers“ als Best Lawyer im Bereich Product Liability ausgezeichnet. Finance Monthly zeichnete ihn 2016 als Lawyer of the Year im Bereich Product Liability für Deutschland aus, ebenso wie ihn das Handelsblatt 2016 bis 2018 in seinem Verzeichnis als Best Lawyer im Bereich Produkthaftung
aufführt. Im Rahmen des German Brand Awards 2017 wurde reuschlaw mit einer Special Mention in der Kategorie Corporate Services ausgezeichnet.

Anzeige:

Kommentare

Noch keine Kommentare

Kommentar schreiben

Umschließende Sterne heben ein Wort hervor (*wort*), per _wort_ kann ein Wort unterstrichen werden.
BBCode-Formatierung erlaubt
Die angegebene E-Mail-Adresse wird nicht dargestellt, sondern nur für eventuelle Benachrichtigungen verwendet.