Telemedicus

, von ,

KI und Algorithmen

Dieser Artikel ist Teil der Artikelreihe „Künstliche Intelligenz”.

Algorithmen sind nicht mit Software gleich zu setzen. Sie sind formalisierte Vorschriften, die endlich, eindeutig, verständlich, ausführbar und allgemeingültig für einen bestimmten Problembereich ausgestaltet sind. Wie diese Vorschriften notiert sind, ist nicht entscheidend. Algorithmen können mit Spielregeln verglichen werden: Ob sie als Kartenspiel, Brettspiel oder Software umgesetzt werden, ist nicht konstitutiv für die Definition eines Algorithmus.

Algorithmen sind die Basis eines Automatisierungsprozesses. Automatisierung ist so allgegenwärtig, dass sie kaum mehr auffällt. Autos, Ampeln, Geldautomaten, Türen in vielen Supermärkten, Treppen in der U-Bahn, der Fokus der Kamera und sogar Thermostate sind Beispiele für Automatisierung. Worin liegt nun die Brisanz des Themas „Algorithmus”? Was ist heute neu?

Was ist heute neu?

Neu sind vor allem zwei Sachen:

1) Neu ist die Größe der Datenbanken, die Algorithmen bedienen können. Algorithmische Prozesse können nicht nur sehr viele Daten prozessieren, sondern unstrukturierte Daten (Daten abgelegt ohne strukturierte Form in Mails, Office-Daten, PDFs in allen möglichen Formaten) und

2) neu ist die Implementierung von bestimmten Formen von komplexeren Algorithmen im kommerziellen Kontext. Gemeint sind damit Algorithmen, die das konstituieren, was mancher heutzutage schwache KI nennt.

Doch auch künstliche Intelligenz und Automatisierung sind nicht ganz das gleiche. Automatisierung bedeutete bisher, dass sehr konkrete Regeln programmiert werden müssen, damit eine Maschine oder Software eine sehr konkrete Aufgabe ausführen können, beispielsweise „suche den kürzesten Weg auf der Landkarte von Berlin nach Speyer”.

Künstliche Intelligenz automatisiert auf abstrakterer Ebene: Sie definiert Effizienzkriterien und verschiedene Aktionsrahmen und je nach Lage wird jene Aktion ausgeführt, die effizienter wirkt: „Fahre den schnellsten Weg von Berlin nach Speyer und bedenke dabei temporäre Verkehrszeichen, Baustellen und unvorhersehbare Faktoren wie Unfälle oder Wetter”.

Dieser Grad der Komplexität und Abstraktion ist ein riesiger Meilenstein und ermöglicht die Einbettung von Automatisierung überall da, wo es Prozesse gibt. Alle Sachverhalte, die sich in einem Prozess abbilden lassen, können (teil)automatisiert werden.

Wie das Beispiel verdeutlicht, wird der ebenfalls prozessuale Charakter beim Design eines komplexeren Automatisierungsverfahrens in der so genannten künstlichen Intelligenz sichtbar: es geht hier nicht nur um das Design eines Algorithmus, sondern um einen Prozess. Zunächst muss der Teil des menschlichen oder analogen Prozesses, der automatisiert werden soll, formalisiert werden. Anschließend müssen die mathematischen Regeln (die Algorithmen), die als Lösung oder Aktion in dem Kontext pertinent erscheinen formuliert und die Art der Daten, die diesen Prozess informiert steuern sollen, definiert und in Software umgesetzt werden. Anschließend erfolgt eine Trainingsphase. Die Software produziert dann statistische Auswertungen, keine Ergebnisse, die von einem Mensch interpretiert werden müssen und in einem Gesamtentscheidungsprozess integriert werden. Zuletzt ist das Design eines Feedbackverfahrens zu berücksichtigen, das Auswertungen evaluiert und danach die Software nachjustiert.

Für all diese Schritte sind verschiedene Berufsprofile verantwortlich und jeder dieser Schritte bedarf menschlicher Interpretation oder Vorstellungen des Sozialen (Was versteht man unter Effizienz oder Optimum oder Gleichheit? Ist vergangenes Verhalten ein guter Proxy für Vorhersagen über zukünftiges Verhalten? Orientieren sich Empfehlungsmodelle an Ähnlichkeiten zwischen ähnlichen Profilen oder an den Unterschieden?).

Drei Missverständnisse über komplexe Algorithmen können vor diesem Hintergrund hervorgehoben werden.

Missverständnis Nr. 1: Anthropomorphisierung

Technische Automatisierungsverfahren gründen auf mathematischen Modellen, die auf der Basis eines Datenbestandes und eines Kommandoregelwerks Wahrscheinlichkeiten berechnen und nach Wahrscheinlichkeiten Tätigkeiten ausführen. Diese Technologien führen folglich a priori von Menschen getroffene Entscheidungen aus und setzen eine „Datafizierbarkeit” des Sachverhalts voraus. Für die Ausführung verfügen diese Systeme über eine beschränkte Anzahl von Optionen, um ihre Ergebnisse zu optimieren. Sie treffen selbst keine Entscheidung. Die Entscheidungen werden zunächst im System- und Datendesign sowie in der Datenauswahl von Menschen abstrakt-generell vorab getroffen.

Diese Trennung im Handlungsstrang zwischen Entscheidung und Ausführung erscheint zuweilen befremdlich – sind doch Ausführungen immer Ausdruck einer Entscheidung des Ausführenden. Infolgedessen wird im Kontext von Automatisierungsverfahren eine anthropomorphisierende Semantik verwendet (maschinelles Lernen, künstliche Intelligenz, autonome Systeme), die jedoch in nicht zutreffenden Annahmen über die Fähigkeiten von Automatisierungssystemen mündet.

Künstliche Intelligenz, maschinelles Lernen, künstliche neuronale Netze, deep learning, … Keines dieser Modelle ahmt menschliches Denken oder Lernen nach. Sie automatisieren zwar, sind aber nicht autonom, denn sie besitzen keinen freien Willen und haben keine Absichten. Autonomie oder Selbstbestimmung sind aber Ausdruck eines freien Willens, der rational eigene Interessen und Absichten verfolgt.

Formen der sogenannten künstlichen Intelligenz wie künstliche neuronale Netze mögen ein biologisches Vorbild haben, sie sind jedoch eher eine Verallgemeinerung eines statistischen Regressionsmodells. Lernende Algorithmen sind daher ein Euphemismus für das Prinzip „je mehr Daten vorhanden, desto akkurater die Wahrscheinlichkeitsparameter“ des Algorithmus. Die sogenannten lernenden Algorithmen sind lediglich als Prozess der Anpassung komplexer statistischer Modelle an riesige Datenmengen zu verstehen. Beispielsweise können Algorithmen fein granulare Objekte besser als Menschen identifizieren1 – etwa Hunderassen. Das geschieht durch das Trainieren dieser komplexen Algorithmen mit einer massiven Anzahl digitaler Bilder, die von Menschen kategorisiert wurden. Der Algorithmus muss dafür Begriffe wie Pudel oder Dackel nicht darstellen und verstehen. So wie Regressionsmodelle das Einkommen eines Individuums anhand von Faktoren wie Ausbildung, soziale Kontakte und Wohngegend einschätzen können, ohne diese Konzepte verstehen zu müssen.
Demgegenüber steht die menschliche Fähigkeit des Spracherwerbs. Im Kindesalter erlernt der Mensch seine Muttersprache mit erstaunlich wenigen Daten (Wörtern). Bereits im kindlichen Alter beweist der Mensch seine Fähigkeit, Hypothesen und begriffliche Vorstellungen anhand weniger Beispielen zu entwickeln.

Können Lernen und Verstehen automatisiert werden?

Die sogenannte künstliche Intelligenz basiert auf statistischer Schlussfolgerung. Eine statistische Schlussfolgerung ist eine Verallgemeinerung von vielen Einzelfällen auf das Allgemeine. Sie kann deswegen nicht zur hundertprozentigen Sicherheit führen. Diese Herangehensweise wird fachlich als „Induktion” bezeichnet. Die Verwendung des Begriffs der „Logik” wurde in diesem Zusammenhang schon früh kritisiert. Unter anderem monierte der Philosoph Rudolf Carnap die Verwendung des Begriffs Logik bei induktiven Verfahren als Abkehr vom Grundverständnis der Logik. Denn der Grundbegriff von Logik ist Wahrheit. Da Gewissheit bei induktiven Schlussfolgerungen nicht gegeben ist, kann der Grundbegriff von induktiver Logik nicht Wahrheit, sondern Wahrscheinlichkeit sein. Induktive Schlussfolgerungen sind also keine logischen Schlussfolgerungen im strengen Sinne, sondern Wahrscheinlichkeitsschlüsse.

Es gibt viele Handlungen in der menschlichen Welt, die nur durch Kontextualisierung und deduktives Vorgehen funktionieren. Sprechen, bewerten, sich in einen anderen Menschen logisch hineinversetzen, ihn interpretieren oder verstehen – diese Art von Tätigkeiten setzt die Fähigkeit der Kontextualisierung voraus. Mit anderen Worten: Nein, mit dieser Technologie kann Lernen und Verstehen nicht automatisiert werden.

Missverständnis Nr. 2: Die Blackbox-Analogie

Erklärungen für politische und rechtliche Zwecke haben eine andere Funktion als wissenschaftliche Erklärungen über das technische Verfahren. Auch wenn die einzelnen Berechnungen des Algorithmus nicht immer rekonstruiert werden können sondern nur Plausibilisierungen. Durch Input/Output Analyse kann durchaus das Verfahren an sich nachvollzogen werden. Es handelt sich hierbei um eine alte, bekannte und sehr wohl akzeptierte Methode, um in Wirtschaftswissenschaften den Markt zu analysieren. Die Spezifikationen für das, was eine Erklärung konstituiert sind allzu sehr auf die technischen Abläufe der Datenverarbeitung und zu wenig auf soziale Interaktion und Auswirkungen fokussiert. Letztere sind aber durchaus messbar und ergründbar. Sie sind umso notwendiger, um Verzerrungen in den Berechnungen verstehen zu können. So ist regelmäßig eine gravierende Diskrepanz zwischen der vom Entwicklungsteam konzipierten Funktionalität einer Software und der Nutzung derselben Software beim Endanwender festzustellen.

Ein Beispiel ist Youtube als Plattform, die als Broadcastplattform entwickelt wurde und vom algorithmischen Design so konzipiert wurde, dass Nutzer möglichst lange auf der Plattform bleiben. Das steht in Kontrast zu der Google-Suche, die als Suchmaschine algorithmisch so entwickelt wurde, dass die Plattform möglichst rasch verlassen wird. Denn eine gute Suchmaschine lässt Nutzer schnell das finden, was sie suchen, sodass sie nicht lange auf der Suchmaschinen-Webseite bleiben müssen. Das Feedback, das für Youtube und Google-Suche statistisch entworfen wurde, ging von diesen zwei verschiedenen Funktionalitäten aus. Google hat Jahre gebraucht um zu verstehen, dass Nutzer Youtube auch als Suchmaschine verwenden. Das stellt Youtube algorithmisch vor eine Herausforderung, denn die zwei Funktionalitäten konnten kaum gegensätzlicher sein. Vor allem zeigt dies, dass es nicht auf die formelle mathematische Relevanz bestimmter in der Statistik inhärenten Bias und Dilemmata ankommt, sondern auf auf die soziale Relevanz, die bei der Nutzung dieser Software entsteht und generell andere statistische Verzerrungen aufzeigt.

Bei Automatisierungsprozessen ist es viel leichter als bei menschlichen Entscheidungen zu dokumentieren, wer was wann im System geändert hat. Sie sind zudem in ihrer Konsistenz besser als Menschen. Denn sie lassen sich in der Ausführung nicht von externen Faktoren wie dem Wetter, Hunger, oder weiteren emotionalen Aspekten beeinflussen.

Die Frage der Konsistenz ist besonders relevant. Nicht nur aus ökonomischer Sicht, sondern auch ethisch kann fehlende Konsistenz eine Auswirkung haben. Es ist wirtschaftlich ineffizient und/oder unfair, wenn Mitarbeiter der Bundesagentur für Arbeit, je nach Wetterlage unterschiedlich über zwei ähnliche Anträge auf Arbeitslosengeld entscheiden – oder Manager zwei gleiche Sachverhalte vor und nach dem Essen anders bewerten. Bei der Herstellung von Konsistenz können algorithmische Verfahren in geeigneten Kontexten, etwa der Vorbereitung von Standardentscheidung nach festgelegten Parametern oder auch im Bereich des Controlling, einen Mehrwert leisten und wiederum Assistenz leisten, um menschliches Verhalten besser verstehen und erklären zu können. Denn zunächst sind Algorithmen die Formulierung menschlicher Ansichten und Vorstellungen der Welt in einer formalisierten Sprache. Die algorithmische Sprache ist daher genauso wenig neutral wie die konventionelle Sprache, in der sich Menschen verständigen. Daraus folgt, dass algorithmische Verfahren von jenen Menschen beeinflusst werden, die in ihre Gestaltungsprozesse involviert sind. Diese menschlichen Beeinflussungen können durchaus von Vorurteilen und Bias behaftet sein. Andererseits stellten die Studien von Paul Meehl bereits in den 1950er Jahren fest, dass die Prognosen einfacher algorithmischer Verfahren regelmäßig die Vorhersagen menschlicher Experten in vielen Bereichen schlagen. Paradoxerweise scheinen Algorithmen folglich nicht nur Quelle von Bias, sondern zugleich Hilfsinstrument, um menschliche Urteile von Vorurteilen zu befreien.

Missverständnis Nr. 3: Der relationale, infrastrukturelle Charakter von Algorithmen

Algorithmen kennen das einzelne Individuum nicht. Rein konzeptionell repräsentieren sie eine Vorstellung des Sozialen. Sie analysieren Muster nie mit absoluten, sondern in Relation zu anderen. Algorithmen stellen Menschen in aussagekräftigen Gruppen zusammen, sodass die Identität der Individuen keine Relevanz mehr hat.

Zwar wird Personalisierung beim Anwender als eine sehr individuelle Erfahrung wahrgenommen, doch technisch bedeutet Personalisierung die Einordnung dieses Individuums zu einem sehr spezifischen Kollektiv von Personen mit ähnlichen Profilen und Interessen. Dabei wird dem Betroffenen nicht notwendigerweise klar, dass er qua algorithmischer Zuordnung Teil eines fein-ziselierten Kollektivs ist. Infolge dieser Zuordnung und Management der verschiedenen Gruppierungen können algorithmische Verfahren mit Bias bestimmte Kollektive schlechter stellen und zwar ohne, dass ein einzelner Schaden feststellbar wäre.

Demokratien kennen wiederum rechtsdogmatisch nur das Individuum. Sie gewährleisten individuelle Grundrechte und nur in einzelnen Rechtsbereichen (beispielsweise im Arbeitsrecht) erfassen sie die kollektivistische Dimension von Diskriminierung. In der Zukunft werden bei der Anwendung von komplexeren Algorithmen diese Phänomen stärker zu beobachten sein – und zwar in allen Sektoren: sei es in der Verteilung von Energie oder Strom, im Konsum- oder Gesundheitssektor oder in der sozialen Sicherung. Dabei wird der Nachweis eines individuellen Schadens deutlich erschwert. Nur mit einem architektonischen Blick werden Unterschiede unter verschiedenen Kollektiven feststellbar. Dass Diskriminierung nicht nur im Arbeitssektor vorhanden, und dass die Einsetzung dieser Technologien in allen Sektoren erfolgen wird, zeigt auf eine der offenen rechtlichen Lücken hin, die durch neue Technologien greifbarer wird.

Algorithmen automatisieren Prozesse indem sie technisch Abläufe und Vorschriften mathematisch standardisieren. Dabei kreieren sie eine neue Form von Infrastruktur in Sektoren, die wir davor nicht als Infrastruktur betrachtet hätten. So könnten wir Google als Informationsinfrastruktur betrachten, oder Facebook unter anderem als soziale Infrastruktur. Sie vernetzen soziale Punkte oder Informationen miteinander. Das wirft normativ folglich ganz andere Fragen auf, beispielsweise die Frage der Versorgungssicherheit im Katastrophen- oder Krisenfall. Und es eröffnet interessante neue Herangehensweisen, um mit KI-gesteuerten Plattformen umzugehen.

Lorena Jaume-Palasí
Foto: Alle Rechte vorbehalten

Lorena Jaume-Palasí ist Gründerin von The Ethical Tech Society eine gemeinnützige Organisation, die das Ziel verfolgt, Prozesse der Automatisierung und Digitalisierung zu betrachten und in Bezug auf ihre gesellschaftliche Relevanz einzuordnen. Lorena forscht zur Ethik der Digitalisierung und Automatisierung. Sie befasst sich in diesem Zusammenhang auch mit rechtsphilosophischen Fragen. 2017 wurde sie von der Regierung Spaniens in dem Weisenrat zu Künstlicher Intelligenz berufen. Sie ist eine der 100 Experten der Cotec Foundation für ihre Arbeit zur Automatisierung und Ethik. Lorena wird regelmäßig von internationalen Organisationen, Verbände und Regierungen konsultiert. Sie ist hat diverse Publikationen zu Internet Governance mitverfasst und herausgegeben und schreibt regelmäßig zu Datenschutz, Privatheit und Öffentlichkeit, öffentliche Güter und Diskriminierung.

2018 erhielt sie mit der Initiative AlgorithmWatch die Theodor Heuss Medaille „für ihren Beitrag zu einer differenzierten Betrachtung von Algorithmen und deren Wirkmechanismen“.


1. Auch wenn Algorithmen bei konkreten Datensätze bessere Ergebnisse als Menschen erzielen (beispielsweise bei der Erkennung von Hunderassen), ist die maschinelle Erkennung von Objekten im Allgemeinen nicht besser als die eines Menschen. Ganz im Gegenteil, Algorithmen machen bei der Erkennung von Objekten Fehler in Fällen, die ein kontextuelles Verständnis benötigen. Diese Fälle sind in der Regel für Menschen wiederum trivial (vgl. die Microsoft Studie Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification, https://arxiv.org/pdf/1502.01852v1.pdf).

, Telemedicus v. 23.01.2019, https://tlmd.in/a/3384

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Newsletter

In Kooperation mit

Kommunikation & Recht

Hosting

Domainfactory