Über eine gesetzliche Pflicht der Schaffung von Nachvollziehbarkeit künstlich intelligenter Entscheidungen
Dieser Artikel ist Teil der Artikelreihe „Künstliche Intelligenz”.
In dem Beitrag „Das dritte Ich“ in der Recht innovativ 02/2018 wurde gefordert, dass Entscheidungen künstlich intelligenter Systeme nachvollziehbar sein müssen. Etwas vorhersehbar Unvorhersehbares dürfe nicht verselbständigt in den Rechtsverkehr entlassen werden. Jemand, aber nicht die Maschine selbst, müsse für eventuell schadhafte Folgen haftbar sein. Um Ansprüche an die negativen Folgen von Entscheidungen künstlich intelligenter Systeme zu knüpfen, müssen diese Entscheidungen auf einen Fehler oder ein Fehlverhalten zurückführbar sein, welche wiederum einem Haftungssubjekt zuordenbar sein müssen. Die Herstellung künstlich intelligenter Systeme und das Angebot von Leistungen basierend auf künstlich intelligenten Systemen dürfen nicht der Entziehung oder gar Verschleierung von Verantwortlichkeit dienen, so wie es die Schaffung einer elektronischen Person im Ergebnis erlauben würde. Die Nachvollziehbarkeit der Entscheidungen künstlich intelligenter Systeme ist von gesellschaftlicher Notwendigkeit, denn die fehlende Nachvollziehbarkeit schafft Vulnerabilität von unbekanntem Ausmaß. Künstlich intelligente Systeme werden unsere Zukunft stark beeinflussen, deswegen dürfen sie diese nicht einseitig bestimmen.
Das deutsche Recht bietet bereits einen hinreichenden Rechtsrahmen zur Beurteilung der zivilrechtlichen und strafrechtlichen Haftung. Eine solche Beurteilung ist jedoch überhaupt erst möglich, wenn eine schadenauslösende Entscheidung, basierend auf reinen Rechenvorgängen, einem Verantwortlichen zugeordnet werden kann. Dieser Beitrag soll daher der Frage nachgehen, wie eine konkrete, gesetzliche Pflicht der Herstellung von Nachvollziehbarkeit künstlich intelligent zustande gekommener Entscheidungen umgesetzt werden könnte.
1. Transparenz
Der Begriff der Nachvollziehbarkeit muss von der Transparenz von Algorithmen und Rechenprozessen etwa im Rahmen von maschinellem Lernen (Machine Learning, ML) unterschieden werden. Eine synonyme Verwendung verbietet sich. Denn die Transparenz von Algorithmen et al. bedeutet nicht notwendigerweise auch die Nachvollziehbarkeit der unter ihrer Anwendung zustande gekommenen Entscheidungen, insbesondere nicht die Möglichkeit der Bestimmung von zivil- oder strafrechtlicher Verantwortlichkeit. So bestimmen im Wesentlichen die Daten, die von einem Algorithmus oder System verarbeitet werden, das Ergebnis – nicht der Rechenprozess selbst. Ein Algorithmus oder Rechenprozess kann fehlerfrei, doch die verwendeten Daten fehlerhaft, tendenziell diskriminierend, gar „vergiftet“ sein. Die in einer Maschine verbauten Sensoren eines anderen Herstellers können Informationen der Umwelt fehlerhaft aufnehmen, bewerten und an den dennoch korrekt arbeitenden Algorithmus bzw. nächsten Verarbeitungsschritt weiterleiten. Die für das Lernen erforderlichen Feedbacks können ebenso fehlleitender Natur sein. Ein transparenter Algorithmus bzw. Rechenprozess ist daher nur ein, aber ein wichtiger Aspekt der Nachvollziehbarkeit einer künstlich intelligent gefällten Entscheidung. Die Transparenz eines Algorithmus bzw. Rechenprozesses findet daher vor allem im Bereich der Forschung und Entwicklung, der Wartung im Rahmen von Leistungspflichten aber auch der Fehlerbehebung im Bereich von Gewährleistungspflichten seinen Bedeutungsschwerpunkt. Hier ist in der Regel nicht der Hersteller, sondern ein Dritter Verpflichteter, der ohne Verständnis für die Abläufe seine vertraglichen Pflichten nicht erfüllen könnte.
2. Erklärbarkeit
Die Bedeutung der ebenfalls vielseitig geforderten Erklärbarkeit künstlich intelligenter Entscheidungen wird hier in dem der Nutzung künstlich intelligenter Systeme zeitlich vorausgehenden Abschnitt verortet: Etwa bei der Aufklärung des potentiellen Nutzers, damit dieser eine informierte Entscheidung für bzw. gegen den Kauf oder die im Rahmen sonstiger Verträge stattfindende Nutzung treffen kann. Die Erklärbarkeit verlangt nicht die umfassende Erläuterung der technischen Vorgänge; eine solche können in der Regel nur wenige Menschen verstehen. Ein umfassendes Verständnis herzustellen kann nicht erwartet werden. Jedoch muss die Erklärung künstlich intelligenter Entscheidungsfindung dem Erklärungsempfänger ermöglichen zu verstehen, welche Risiken sich aus der Nutzung ergeben und was mit seinen personenbezogenen Daten geschieht, die im Rahmen der Nutzung verarbeitet werden (müssen). Ein solches Verständnis kann in der Regel nur mit einer einfachen Darstellung geschaffen werden, die komplexe technische Ausführungen ausschließt. Eine einfache Erklärung, die nicht falsch ist, erfordert jedoch ein umfassendes Verständnis des Erklärenden. Mit Transparenz allein ist es also noch nicht getan.
3. Begriffe zweckorientiert bestimmen
Natürlich ist nicht ausgeschlossen, dass auch andere Begriffe sinnvoll verwendet werden können. Wichtig ist jedoch, um Regelungslücken zu vermeiden, dass stets unterschieden wird, was der Zweck der Offenlegung von Entscheidungskomponenten ist. Eine alleinige gesetzliche Pflicht zur Herstellung von Transparenz von Algorithmen bzw. Rechenprozessen kann jedenfalls in der Folge keine Pflicht zur Bereitstellung qualitativ hochwertiger Daten desjenigen (mit-)begründen, der einen korrekt arbeitenden Algorithmus bzw. Rechenprozess mit „Datenmüll“ zu fehlerhaften Entscheidungen bringen könnte. Hierfür bedarf es einer zusätzlichen Transparenz von Interagierenden, Interaktionen und Interdependenzen, um zumindest Fehlerquellen quantitativ eingrenzen zu können. Die Bestimmung der Fehler, der Fehlerquelle, der Fehlerqualität und ihre Zuordnung zu einem Verantwortlichen sind daher im Wesentlichen die Ziele, welche mit der geforderten Nachvollziehbarkeit künstlich intelligenter Entscheidungen erreicht werden sollen. Was nachvollziehbar ist, kann im Übrigen auch einfach erklärt werden.
4. Klammerwirkung der Nachvollziehbarkeit zwecks Reduzierung von Vulnerabilität
Die Nachvollziehbarkeit umfasst also notwendigerweise alles der Aufklärung dienliche Verstehensnotwendige und -mögliche. Kurzum: Nachvollziehbarkeit bedeutet nach hiesiger Auffassung die von Anfang an regelmäßige Dokumentation sämtlicher Vorgänge und der hieran mitwirkenden Komponenten, ob menschlicher, organisatorischer, mechanischer, elektronischer oder informatorischer Natur. Ihr wird daher hier eine Klammerwirkung zugeschrieben.
Die Erklärbarkeit der Entscheidungsfindung künstlich intelligenter Systeme vor der Nutzung, ihre Transparenz u.a. während der Nutzung und die Genannten umklammernde Nachvollziehbarkeit nach einer ein Schadensereignis auslösenden Nutzung werden hier in ihrem Zusammenspiel als notwendig und als das realisierbare Gegenteil der angeblichen „Black Box“ Künstliche Intelligenz angesehen. Deren Ge- und Verschlossenheit (Opacity) verhindert jede Form des Verstehens und schafft hierdurch nicht nur Misstrauen, sondern auch Angst. Angst bedeutet Vulnerabilität und die gilt es weitmöglich zu reduzieren.
Die Rekonstruktion und damit Sichtbarmachung entscheidungserheblicher Vorgänge und Fehler im Rahmen sog. Reverse Engineerings darf nicht die Aufgabe des Geschädigten sein, etwa zur Erbringung des Nachweises der Fehlerkausalität und des Herstellervertretenmüssens. Eine Umkehr der Beweislast zu seinen Gunsten infolge fehlenden Einblicks in die Organisation des Herstellers führt auch zu keinen befriedigenden Ergebnissen, wenn dieser auf die „Black Box“ und damit vermeintlich unmögliche Nachvollziehbarkeit der Entscheidungsfindung künstlich intelligenter Systeme verweisen darf. Eine solche Enttäuschung schadet der Innovation langfristig, denn sie beeinträchtigt nachhaltig das Vertrauen in die technologische Fortentwicklung und verhindert Verbesserungen an den mangelhaften Vorgängern.
1. Man muss nicht alles detailliert nachvollziehen können um Verantwortung zuzuordnen
Vorweg muss klargestellt werden, dass bereits heute nicht alle Entscheidungen künstlich intelligenter Anwendungen zu 100 Prozent nachvollzogen werden können. Je komplexer die Systeme künstlicher Intelligenz werden, desto größer wird das Risiko unvollständiger Fehleraufklärung und unsicherer Haftungsbestimmung. Insbesondere Machine Learning lehrt uns, dass mit zunehmender Zahl von Layers, Neuronen oder „Knoten“ die Übersicht und Kontrolle des schaffenden Menschen sinkt. Dennoch muss stets eine bestmögliche Bestimmung von Verantwortlichkeit gewährleistet sein. Der Fakt, dass menschliche Intelligenz bis heute nicht definier- und nachvollziehbar bis ins Detail ist, hat noch keinen Menschen vor strafrechtlicher und zivilrechtlicher Verantwortlichkeit bewahrt.
2. Nachvollziehbarkeitsanforderungen gestuft nach Bedeutung und Eingriffsqualität
Das bedeutet, vor dem Hintergrund sehr unterschiedlicher Stufen von Relevanz und Eingriffsqualität künstlich intelligenter Entscheidungen für Menschen, dass eine hieran orientierte Stufung der Anforderungen an die Nachvollziehbarkeit geschaffen werden muss:
Nachvollziehbarkeit bedeutet nicht die dauerhafte, gar behördliche Überwachung, wenn es etwa um maschinelle Texterkennung und Autokorrektur geht. Eine ausschließlich rückwirkende, schadensanlässliche Beurteilung künstlich intelligenter Entscheidungen verbietet sich dagegen etwa bei Pflegerobotern, die mit der menschlichen Gesundheit und dem menschlichen Leben „arbeiten“. Nachvollziehbarkeit heißt auch nicht, dass der Hersteller steten Zugriff auf im Eigentum des Nutzers stehende Geräte haben darf.
Mit sich aus den Unwägbarkeiten des (Zusammen-)Lebens ergebenden Zweifeln müssen wir weiterhin leben, vor allem zugunsten der grundgesetzlich garantierten Freiheiten; das gehört zum allgemeinen Lebensrisiko. Zweifel von darüber hinausgehendem Charakter müssen allerdings zulasten desjenigen gehen, der diese, herrührend aus der von Anfang an bestehenden und vorhersehbaren Unvorhersehbarkeit bei Inverkehrbringen, bewusst geschaffen bzw. in Kauf genommen hat. Die Grenzen zwischen allgemeinem Lebensrisiko und zu verantwortendem Risiko sind nicht klar, waren nie klar und werden immer verschwimmen. Für diese Fälle gibt es im deutschen Recht unbestimmte Rechtsbegriffe wie das „öffentliche Interesse“ oder „Gemeinwohl“ mit einem für die Exekutive eröffneten Beurteilungsspielraum. Dieser ist jedoch wiederum ohne ein Minimum an Nachvollziehbarkeit nicht ausfüllbar.
3. Welches Risiko ist hinnehmbar und kann sogar vertraglich übernommen werden?
„Risiko“ bedeutet auch, dass unter Umständen, etwa im Falle einer umfassenden Auf- und Erklärung vor der Nutzung nicht vorhersehbarer künstlich intelligenter Entscheidungssysteme, die Verantwortlichkeit des Herstellers oder Anbieters unter Verweis auf das Mitverschulden des Nutzers im Sinne von § 254 BGB reduziert werden kann.
Diese Reduktion kommt jedoch nicht in Betracht, wenn etwa unter Verstoß gegen die Vorschriften über Allgemeine Geschäftsbedingungen (§ 305 ff. BGB), den Grundsatz von Treu und Glauben (§ 242 BGB), das Wucherverbot sowie Sittenwidrigkeit (§ 138 BGB), gesetzliche Verbote (§ 134 BGB) und Spezialgesetze wie das Gesetz gegen den unlauteren Wettbewerb (UWG) aber auch die Datenschutzgrundverordnung (DSGVO) versucht wird, Verantwortung abzuwälzen. Müßiggang und Ignoranz, Gewinnmaximierung durch Einsparungen bei der Qualität sowie juristische Winkelzüge dürfen keine Mittel der Enthaftung von Herstellern und Anbietern steigend nachgefragter Produkte künstlicher Intelligenz sein.
Aus diesem Grund wurde auch hier die juristische Konstruktion der elektronischen Person abgelehnt. Sie setzt einen komplett falschen Anreiz und würde dazu führen, dass Entscheidungen künstlich intelligenter Systeme nicht einmal dem Versuch der Nachvollziehbarmachung unterzogen werden – mit denkbar schlimmen Folgen für die Geschädigten und nichtsahnenden Folgenutzer nicht verbesserbarer Systeme künstlicher Intelligenz. Der Schutz Schwächerer im Falle von Informationsasymmetrien, der etwa im Rahmen der Vorschriften über die Allgemeinen Geschäftsbedingungen (§§ 305 ff. BGB) und auch der von der Rechtsprechung entwickelten Beweislastumkehr im Rahmen der deliktischen Produzentenhaftung (§ 823 ff. BGB) zur Tragen kommt, darf nicht einfach durch eine Verlagerung der Entschädigungspflicht auf Maschinen ausgehöhlt werden.
Schaden sollte, so objektiv vermeidbar, gar nicht erst passieren müssen. Zumindest muss seine Eintrittswahrscheinlichkeit vom Nutzer weitmöglich eingeschätzt werden können, um seine körperliche und finanzielle Integrität von Anfang an schützen zu können. Geht er ganz bewusst ein solches gravierendes Risiko ein, kann die alleinige Verantwortlichkeit nicht beim Hersteller bzw. Anbieter verortet werden.
4. Nachvollziehbarkeit in einem multidimensionalen Raum ist eine Herausforderung
Die geforderte Nachvollziehbarkeit spannt sich also, partiell mal straffer, mal lockerer, durch und über einen großen, mehrdimensionalen Raum von möglichen Anwendungen künstlich intelligenter Systeme, mit den verschiedenen Horizonten und damit Interessen der Nutzer, Anbieter, Hersteller und Behörden. Dieser mehrdimensionale Raum muss zum einen öffentlich-rechtlich, etwa im Hinblick auf die Produktsicherheit, aber auch im Rahmen der vertraglichen Risikoverteilung und deliktischen Produzentenhaftung abgesteckt sein. Jeder Einzelfall kann natürlich nicht geregelt werden. Nicht alles kann überwacht und überprüft werden. Gesetze müssen zudem, um ein Mindestmaß an Flexibilität bieten zu können, grundsätzlich technologieneutral sein. Ein Gesetz darf weder seine Umgehung durch Anwendung anderer Technologien ermöglichen, noch eine (auch-)nützliche Technologie verbieten. Erklärbar, transparent und nachvollziehbar macht man die Entscheidungen künstlich intelligenter Systeme als Gesetzgeber in diesem nicht vollumfänglich begrenzbaren Bereich dann im Wesentlichen durch eine klare, die beteiligten Interessen bestmöglich ausgleichende Verteilung von Rechten und Pflichten sowie Vorteilen und Nachteilen.
Diese Anforderungen lesen sich geradezu lähmend. Aber dieser Eindruck darf nicht das Verwehren juristischen Aufarbeitens und damit des Herausarbeitens von Nachvollziehbarkeit zugunsten der Feststellung von Verantwortlichkeit für schadensverursachende, künstlich intelligente Entscheidungen begründen. Ein Weg muss gefunden werden.
1. Mehr Pflichten und weniger Rechte führen zu mehr Standortunattraktivität
Bei der ausgleichenden Verteilung rechtlicher Verantwortung stellen sich jedoch vor allem folgende, zu lösende Probleme:
– Je umfassender die Pflicht zur Nachvollziehbarmachung der Entscheidungen künstlich intelligenter Systeme ist, desto größer und abschreckender ist das daran geknüpfte Haftungsrisiko für innovative Entwickler und Anbieter. Es besteht die Gefahr des Abwanderns, ins Ausland oder in die rechtliche Grau- bzw. Schwarzzone.
– Je größer das eigene Haftungsrisiko ist, desto geringer ist das Interesse an der Nachvollziehbarmachung. Niemand möchte sich selbst belasten müssen oder gar schädigen. Es besteht auch hier die Gefahr des Abwanderns.
– Zudem bedeutet eine umfassende rechtliche Pflicht der Nachvollziehbarmachung auch eine Erschwernis bis hin zur Verzögerung der Markteinführung unter Überholung durch andere, weniger restriktive Nationen. Infolge der geringen Standortattraktivität bedeutet dies auch hier wieder die Gefahr des Abwanderns.
Wie kann Deutschland also die Risiken für die Nutzer klein- sowie die Tore zu den Chancen freier, kreativer Entwicklung offenhalten, um sich als eine der führenden Nationen im Bereich der Künstlichen Intelligenz zu etablieren? Mehr Pflichten allein können keine Lösung sein. Dies gilt im gleichen Maße für nicht (mehr) herstellereigene Angebote sich, v.a. im Rahmen von Machine Learning, weiterentwickelnder künstlich intelligenter Entscheidungssysteme.
2. Ausgleichende Lösungsansätze zugunsten mehr Entwicklungsfreiheit
Die Lösung kann allerdings auch nicht sein, die innovativen Unternehmen nicht zur Nachvollziehbarkeit der Entscheidungen ihrer künstlich intelligenten Systeme zu verpflichten. Ein befriedigendes Ergebnis kann nur durch das Fördern der Entwicklung und des Zusammenwirkens vieler Faktoren erreicht werden. Diese kann der Beitrag nicht vollumfänglich darstellen, jedoch sollen die folgenden wesentlichen Faktoren und möglichen Stellschrauben benannt werden:
a) Entwicklungserleichterungen müssen in das deutsche Rechtssystem eingepasst werden
Dem zu findenden Interessenausgleich wird der immer wieder getätigte Verweis auf US-amerikanische Verhältnisse nicht gerecht. In den USA sind die Bedingungen für innovative Entwicklungen angeblich besser, weil z.B. Anforderungen an den Datenschutz geringer sind und Neuerungen mehr Raum gegeben wird. Allerdings stehen dieser vom Silicon Valley repräsentierten, günstigeren Sach- und Rechtslage realisierbare (Straf-)Schadensersatz- und Schmerzensgeldforderungen in einem dem deutschen Rechtssystem unbekannten Ausmaß gegenüber. Der Standort Deutschland kann die rechtlichen Anforderungen an Hersteller und Anbieter innovativer und risikobehafteter Produkte nicht absenken ohne die (zivilrechtlichen) Rechtsfolgen entsprechend, vor allem nach oben hin, anzupassen. Es ist nicht erkennbar, dass die erreichbaren (Straf-)Schadensersatz- und Schmerzensgeldsummen in den USA abschreckende Wirkung haben. Allerdings sind die Möglichkeiten Deutschlands begrenzt: Eine Generalüberholung eines sich historisch und organisch entwickelten Rechtssystems ist nicht angemessen. Daher muss geschaut werden, mit welchen bekannten und bewährten Instrumenten die gewünschten Ziele auch erreichbar sind. Anderenfalls wird die Einheit und damit Widerspruchsfreiheit der Rechtsordnung gefährdet.
Im Hinblick auf die staatlicherseits ausgleichende Gewährleistung von verfassungsrechtlich garantierten Grundrechten kann an dieser Stelle beispielhaft auf das deutsche Gewerberecht verwiesen werden. Stark vereinfacht gesprochen können öffentliche Nutzungsangebote künstlich intelligenter Entscheidungssysteme nicht unähnliche Risiken wie Spielgeräte im Sinne des § 33c Gewerbeordnung (GewO) mit sich bringen; sie gehen unter Umständen sogar erheblich über reine Vermögensverluste hinaus. So sieht § 33c Abs. 1 S. 1 GewO vor, dass derjenige,
[der] gewerbsmäßig Spielgeräte, die mit einer den Spielausgang beeinflussenden technischen Vorrichtung ausgestattet sind, und die die Möglichkeit eines Gewinnes bieten, aufstellen will, […] der Erlaubnis der zuständigen Behörde [bedarf].
Betrachtet man Facebook-Algorithmen und Machine Learning-basierte Blasenbildung in ebensolchen sozialen Netzwerken, die bisweilen wie beim Glücksspiel, da Aufmerksamkeit begehrend und zum Anbietervorteil bindend, suchtähnliche, selbstschädigende und realitätsentfernende Resultate bei den Nutzern auslösen können, liegt es nicht fern, zur Anwendung kommende künstlich intelligente Entscheidungssysteme einem Verbot mit Erlaubnisvorbehalt wie im Falle von § 33c GewO zu unterstellen.
b) Entwicklungserleichterungen erfordern die Erleichterung der Anspruchsverfolgung im Schadensfalle
Die mit (Weiter-)Entwicklungserleichterungen notwendigerweise korrespondierende Erleichterung der Anspruchsverfolgung Geschädigter könnte auch durch die Schaffung einer spezialgesetzlichen Gefährdungshaftung geschaffen werden. In diesem Fall bedürfte es keines Verschuldens und insofern auch keines Verschuldensnachweises des Geschädigten. Hersteller bzw. Anbieter haften für die Schaffung und Aufrechterhaltung einer erlaubten Gefahr.
Auch hilft ein erneuter Verweis auf die USA nicht weiter, denn das US-amerikanische Prozessrecht ist erheblich anders ausgestaltet, um Geschädigten die Anspruchsverfolgung zu erleichtern. Dementsprechend müsste das deutsche Zivilprozessrecht erheblich verändert werden, um eine Verschiebung der rechtlichen Vorteile hin zu den Hersteller- und Anbieterinteressen in der Entwicklungs- und Markteinführungsphase wiederum auf Geschädigten- und Anspruchstellerseite auszugleichen. Denkbar sind spezielle Verfahrensarten. Musterfeststellungsklagen sind jedoch ob ihrer vorwiegenden Verzögerungswirkung gerade kein Beispiel für die Erleichterung der Anspruchsverfolgung. Sie haben sich unter Verweis auf das Kapitalanleger-Musterverfahrensgesetz (KapMuG) auch nicht bewährt.
c) Selbstverwaltung zur Sicherung kontinuierlicher Qualität von Entwicklung und Leistungen
Vorstellbar ist das Schaffen einer weiteren Kontrollinstanz mit dem Ziel der Qualitätssicherung. Gerade im Falle der Resultate von Machine Learning, welche sich immer mehr der menschlichen Nachvollziehbarkeit entziehen, sollte langfristig überlegt werden, wie man Fachkenntnisse, fachlich versierte Kontrolle und Überwachung effizient gebündelt und dabei das erforderliche Maß an objektiver, ggf. maschinell hergestellter Nachvollziehbarkeit ermöglichen kann.
Die Pflichtmitgliedschaft bei juristischen Personen des öffentlichen Rechts mit Selbstverwaltungsaufgaben, etwa wie der Rechtsanwälte in örtlichen Rechtsanwaltskammern mit zugeordneten Anwaltsgerichten, die über die Einhaltung berufs- bzw. bereichsspezifischer Pflichten wachen und richten, ist eine Möglichkeit, Erleichterungen in der Entwicklung innovativer, künstlich intelligenter Systeme einerseits zu ermöglichen (vgl. die Unabhängigkeit des Rechtsanwalts, § 1 Bundesrechtsanwaltsordnung, BRAO) und andererseits in einem gesetzlich abgesteckten Pflichtenkorridor zu halten (vgl. die Pflichten des Rechtsanwalts, §§ 43 ff. BRAO). Ungeachtet der nicht ins Gewicht fallenden Schwächen und Nachteile der Verkammerung könnte diese Selbstverwaltungslösung grundsätzlich gewährleisten, dass Gewissenhaftigkeit (vgl. § 43 S. 1 BRAO) Sachnähe (§ 43b BRAO) und Fachkunde (§ 43a Abs. 6 BRAO) mehr in den Fokus rücken als wirtschaftliche Interessen. Reißerisches Marketing mittels Verzerrung der Wirklichkeit wäre dann entsprechend untersagt (vgl. § 43b BRAO). In Selbstverwaltung organisierte Fortbildungspflichten und ausgestellte Nachweis besonderer Fachkenntnisse könnten die Qualität in der Entwicklung künstlich intelligenter Systeme fördern. Dabei wäre sichergestellt, dass im Wesentlichen nur Fachkundige entscheiden.
d) Schaffung von neuen, die neuen Freiheiten flankierenden Pflichten: Pflichtversicherungen
Will man die Entwicklung künstlich intelligenter Systeme und damit die Eröffnung neuer Gefahrenquellen in Deutschland fördern, müssen die neuen Freiheiten von ebenso neuen, mit diesen Gefahren korrespondierenden Pflichten flankiert werden:
Sinnvoll wäre die Schaffung einer Pflichtversicherung (vgl. Pflichtversicherungsgesetz, PflVG) ähnlich der Berufshaftpflichtversicherung für Rechtsanwälte (§ 51 BRAO), die im Schadensfalle gemäß § 117 Abs. 1 Versicherungsvertragsgesetz (VVG) auch unabhängig von vertragsverletzendem Verhalten des Versicherungsnehmers gegenüber Geschädigten eintritt. Wesentlich wäre in dieser Konstellation, dass ihr gegenüber Offenlegungs- und Risikoberichtspflichten bestehen, die erfüllt werden müssen, um den Versicherungsschutz im Innenverhältnis nicht zu gefährden.
3. Die Schaffung von bestmöglicher Nachvollziehbarkeit sollte verpflichtend, aber v.a. im eigenen Interesse sein
Doch nicht nur gegenüber einer Pflichtversicherung sollten besondere Dokumentations- und Aufklärungspflichten bestehen, die eine bestmögliche Nachvollziehbarkeit künstlich intelligenter Entscheidungen ermöglicht. Ähnlich der anwaltlichen Aktenführungspflicht (§ 50 Abs. 1 S. 1 BRAO), die vor allem dem Nachweis pflichtgemäßen Handelns im Falle der Inanspruchnahme wegen Verletzungen der Pflichten aus dem Mandatsvertrag dient, sollte die eine Nachvollziehbarkeit ermöglichende, umfassende, d.h. lückenlose chronologische Dokumentation der (Weiter-)Entwicklung künstlich intelligenter Systeme verpflichtend sein. Auch wenn die Verletzung dieser Pflicht nicht überwacht und verfolgt wird, allenfalls im Falle einer Beschwerde der Kammer vorgelegt werden muss (vgl. § 56 Abs. 1 BRAO), besteht doch ein Anreiz zur bestmöglichen Nachvollziehbarmachung. Die lückenlose Dokumentationspflicht dient hier nämlich dem eigenen Schutz.
Eine solche Dokumentation im eigenen Interesse ermöglicht nicht zuletzt die im Einzelfall erforderliche Einholung einer behördlichen Erlaubnis für das öffentliche Angebot der Nutzung künstlich intelligenter Entscheidungssysteme, die ggf. erforderliche regelmäßige Überprüfung der Erfüllung der Erlaubnisanforderungen und den Schutz vor dem behördlichen Verbot (vgl. hierzu die Gewerbeuntersagung wegen Unzuverlässigkeit des Gewerbetreibenden zum Schutze der Allgemeinheit, § 35 GewO).
Es ist nicht von der Hand zu weisen, dass Deutschland als Standort für innovative Entwicklungen im Bereich der Künstlichen Intelligenz attraktiver werden muss. Die nötige Attraktivität für Wissenschaftler und Entwickler aus aller Welt wird allerdings nicht binnen kurzer Zeit hergestellt werden können. Insbesondere ist es nicht möglich, von heute auf morgen Silicon Valley-Verhältnisse zu schaffen, da die Rechtssysteme Deutschlands und der USA völlig unterschiedlich gewachsen und ausgestaltet sind. Beide haben ihre Vor- und Nachteile. Optimierungsbedarf gibt es dennoch und der wird hier tatsächlich darin gesehen, (weiter-)entwickelnden Unternehme(r)n mehr Freiheiten einzuräumen. Allerdings darf das deutsche Rechtssystem nicht aus dem Gleichgewicht geraten: Seine Struktur dient vor allem dem Interessenausgleich. Dieser muss nun entsprechend neu „verhandelt“ werden.
Neue Freiräume bringen neue Pflichten, Risiken und Rechtsfolgen mit sich. Die wichtigste Pflicht ist diejenige zur Schaffung der bestmöglichen Nachvollziehbarkeit künstlich intelligenter Entscheidungen. Am einfachsten ist diese zugunsten aller umzusetzen, wenn sie zuvörderst dem eigenen Schutz dient. Diese Pflicht sollte eingekleidet sein in eine Regelungssystematik, die dem deutschen Rechtssystem vertraut ist und sich überwiegend bewährt hat. Als Vorbild bietet sich hier die umfassende, chronologische Handaktenführungs- und damit Dokumentationspflicht des Rechtsanwalts an.
Der Artikel wurde zuerst in Ri 03/2018, S. 136 ff. veröffentlicht.
Claudia Otto ist seit 2012 Rechtsanwältin, seit 2016 Inhaberin der Frankfurter Kanzlei COT Legal und seit 2017 Herausgeberin der interdisziplinären Fachzeitschrift Recht innovativ (Ri). Sie berät, schreibt und referiert weltweit zu Fragen der Digitalisierung, insbesondere neu entstehenden Rechtsfragen rund um technische Innovationen wie Artificial Intelligence (AI). Vor der Gründung von COT Legal war die Autorin viereinhalb Jahre für Hengeler Mueller tätig. Seit 2007 ist Claudia Otto Mitglied von Transparency International e.V., seit 2018 Mitglied der Ri-Kooperationspartnerin Robotics & AI Law Society e.V. (RAILS), European AI Alliance und GRUR.