Telemedicus

, von

Einführung in das Thema „Künstliche Intelligenz“

Dieser Artikel ist Teil der Artikelreihe „Künstliche Intelligenz”.

1. Einleitung

In der Informatik werden unter dem Begriff „künstliche Intelligenz” ganz unterschiedliche Ansätze und Methoden zusammengefasst, die versuchen, geistige Leistungen von Menschen nachzubilden oder zu simulieren. Die Methoden lassen sich grob in vier Bereiche mit jeweils unterschiedlichen funktionalen Zielsetzungen einordnen:

  • Mustererkennung: Erkennen von Regelmäßigkeiten in Sprache, Bildern, etc.
  • Maschinelles Lernen: Konzeptbildung, Hypothesen, Regelgenerierung, etc.
  • Expertensysteme: Regelbasiertes Schließen, Bewertung von Sachverhalten, etc.
  • Maschinelles Planen und Handeln: autonome Fahrzeuge, Robotik, etc.

Im Folgenden werden diese vier Bereiche und ihre Möglichkeiten übersichtsartig vorgestellt.

2. Mustererkennung

Bei der Mustererkennung geht es darum, aus umfangreichen, unstrukturierten und gegebenenfalls sogar störungsbehafteten Realweltdaten (zum Beispiel erzeugt von Mikrofonen, IoT-Sensoren oder anderen Datenquellen) relevante Informationen zu extrahieren. Eine weit verbreitete Anwendung der Mustererkennung ist es, in Kamerabildern Verkehrszeichen zu erkennen und dem Autofahrer im Armaturenbrett anzuzeigen. Andere bereits produktiv laufende Anwendungen sind die Erkennung von bestimmten Personen in Fotos, zum Beispiel in sozialen Netzwerken, das Erkennen von Melodien und Liedern oder auch „OCR” (Optical Character Recognition, als Texterkennung in gescannten Dokumenten).

Die grundlegende Herausforderung bei der Mustererkennung ist die Ermittlung von in Bezug auf die zu erkennenden Gegenstände trennscharfen und automatisch feststellbaren Charakteristika. Dabei werden im Wesentlichen zwei Typen von Verfahren verwendet:

Programmatische analytische Verfahren

Im Beispiel Bildverarbeitung orientieren sich analytische Techniken an den konzeptionellen Annahmen und Vereinfachung, die das menschliche Sehen1 ausmachen, verknüpft mit statistischen Methoden. Beispielsweise liegt der Raumtiefenerkennung durch das menschliche Gehirn die Annahme zugrunde, dass die Größe von Strukturelementen am Boden (zum Beispiel Kacheln oder Steinen) grundsätzlich gleich ist, so dass relativ kleinere Elemente als mit großer Wahrscheinlichkeit weiter vom Betrachter entfernt liegend angesehen werden.2

Auch Ähnlichkeitssuche in großen Textdatenbeständen funktioniert nach statistisch-empirisch geprägten Methoden, die anhand von bestimmten Merkmalen die Relevanz eines Textes für eine Suche ermitteln.

Verfahren auf Basis trainierter neuronaler Netze

Neben solchen analytischen Techniken gibt es Techniken der Mustererkennung, die auf künstlichen neuronalen Netzen basieren, die die Funktionsweise des menschlichen Gehirns simulieren. Solche Netze werden nicht mit expliziten Annahmen programmiert, sondern über eine Vielzahl von Beispiele trainiert, so dass sie selbstständig die in einem Bild oder eine Tonfolge immanenten charakteristischen Merkmale herausfinden.

3. Maschinelles Lernen

Beim maschinellen Lernen geht es um die Erkennung von Bedeutungszusammenhängen in Datenbeständen. Hier werden verschiedene Ansätze unterschieden:

  • Überwachtes Lernen, bei dem ein „Lehrer“ zu jedem Trainingsdatensatz das zu lernende Ergebnis vorgibt.
  • Unüberwachtes Lernen, bei dem das System selbstständig Kategorisierungen und Zusammenhänge aus großen Datenbeständen extrahiert.
  • Bestärkendes Lernen, bei dem ein agierendes System positives oder negatives Feedback aus der Realwelt bekommt und entsprechend sein Verhalten anpasst.

Alle diese Ansätze profitieren von großen Datenmengen. Je mehr Trainingsmaterial zur Verfügung steht, umso besser kann beim „überwachten Lernen” trainiert werden. Je mehr unterschiedliche Daten zur Verfügung stehen, umso mehr Kategorien und Zusammenhänge können beim „unüberwachten Lernen” erkannt werden.

Naturgemäß ermöglichen also die wachsende Größe von Datenbeständen (Big Data) und die wachsende Spannbreite der gespeicherten und übertragenen Daten durch die Vernetzung von immer mehr Alltagsgegenständen (Internet der Dinge) heute neue Anwendungen der Methoden der KI, die zu Ergebnissen führen, die die geistigen Leistungen von Menschen in Teilbereichen aufgrund des Umfangs und der Geschwindigkeit der Datenverarbeitung weit übertreffen können.

Die meisten Lernverfahren (insbesondere im überwachten Lernen) basieren darauf, dass während der Trainingsphase Zusammenhänge zwischen Eingabewerten (zum Beispiel einem Pixelmuster in einem gescannten Dokument) und einem vorgegebenen Ausgabewert (zum Beispiel einem Buchstaben) hergestellt werden. Bei einem neuronalen Netz3 beispielsweise wird während der Trainingsphase die Gewichtung der Verdrahtung der Neuronen so geändert, dass in der darauf folgenden Anwendungsphase bestimmte Muster von Eingabewerten zu den gewünschten Ergebnissen führen, das heißt dass beispielsweise ein bestimmter Buchstabe in einem Bild mit einer hohe Wahrscheinlichkeit erkannt wird.

Automatische Generierung von Kategorisierungen

Bei der Kategorisierung (oder Clusterbildung4) werden anhand von beschreibenden Daten Gruppen von Elementen (zum Beispiel Personen) gebildet, die sich bezüglich bestimmter Charakteristika ähnlich sind. Angewandt auf sehr große Datenmengen können Computersysteme Kategorien finden, die einem Menschen nicht „aufgefallen” wären.

Insbesondere die Berücksichtigung von in der Vergangenheit überhaupt nicht vorhandenen Datenbeständen aus dem Internet der Dinge (Bewegungsprofile, Home-Automation-Informationen, Nutzungsinformationen von vernetzten Alltagsgegenständen) können zu Kategorien führen, die sich der normalen menschlichen Erfahrungswelt verschließen.

Automatische Ermittlung von Zusammenhängen

Basierend auf diesen gegebenenfalls für Menschen nicht begreifbaren Kategorien können Systeme selbstständig statistisch relevante Zusammenhänge zwischen solchen Kategorien und dann wieder für Menschen relevanten Eigenschaften oder Einordnung treffen. Ein einfaches und für Menschen noch nachvollziehbares Beispiel sind Lebensmittelunternehmen, die aus dem Einkaufsverhalten von Frauen auf eine bestehende Schwangerschaft schließen können.

4. Expertensysteme

Während die bisher vorgestellten Methoden auf das Erkennen von Regelmäßigkeiten bzw. Mustern und die automatische Generierung von neuem Wissen abzielten, beschäftigt sich das Gebiet Expertensysteme mit der Anwendung von Wissen als Grundlage für Entscheidungen.5

Funktionsweise und Grenzen von Expertensystemen

Expertensysteme sind Programme, die eine bestimmte Menge Wissen über Zusammenhänge und Regeln anwenden, um eine bestimmten Sachverhalt zu bewerten und Schlussfolgerungen zu ziehen. Dabei können Expertensysteme auf vom Menschen vorgegebenen Regelwissen arbeiten oder mit automatisch generiertem oder gelerntem Wissen arbeiten. Mit der Darstellung des Ergebnisses der Wissensanwendung ist die Aufgabe eines Expertensystems beendet. Ob das Ergebnis einen realweltlichen Einfluss hat oder nicht, hängt vom Anwender des Systems ab.

5. Zusammenfassung und Ausblick

Dieser Beitrag hat ausgeführt, dass das Feld „Künstliche Intelligenz” aus einer Menge ganz unterschiedlicher, bereits seit vielen Jahren bekannter Technologien besteht, die verschiedene Aspekte des menschlichen Denkens nachempfinden und auf Grund der steigenden Rechnerleistung und Datenmengen in letzter Zeit ganz erheblich an Bedeutung gewonnen haben.

Im Moment werden eine Vielzahl von spezialisierten „künstlichen Intelligenzen” entwickelt, die durch die Kombination von verschiedenen KI-Technologien oder auch mehreren neuronalen Netzen bestimmte, eingegrenzte Aufgabenstellungen überraschend gut lösen können. Ein Beispiel sind selbstlernende Schach- und Go-Programme.

Ein weiterer wichtiger Treiber ist die Nutzbarmachung und Verknüpfung neuer und immer größerer Datenbestände. Wie oben erläutert hängt der Erfolg von maschinellem Lernen ganz wesentlich von der Menge und Qualität der zur Verfügung stehenden Daten ab, so dass die existenten KI-Technologien und -Ansätze alleine durch diese Zunahme des „Inputs” immer mächtiger werden und in immer mehr Bereiche von Leben und Arbeit vordringen werden.

Dr. Oliver Stiemerling
Foto: Alle Rechte vorbehalten

Dr. Oliver Stiemerling ist öffentlich bestellter und vereidigter Sachverständiger für Systeme und Anwendungen der Informationsverarbeitung. Als IT-Sachverständiger erstellt er Gutachten und bewertet Sachverhalte der Informationsverarbeitung für öffentliche und private Auftraggeber. Zudem berät er Unternehmen in allen Bereichen der Digitalisierung, publiziert und hält Vorträge auf Fachtagungen. Er hat an den Universitäten Bonn und Warwick (Großbritannien) Informatik studiert. An der Universität Bonn promovierte er über die Anpassbarkeit von Software. Er ist seit 1992 als unabhängiger IT-Berater in unterschiedlichen Branchen tätig und gründete im Jahr 2000 die ecambria systems GmbH.


1. Ein grundlegendes Werk ist beispielsweise: David Marr (1982): Vision. A Computational Investigation into the Human Representation and Processing of Visual Information, W. H. Freeman and Company. In diesem Buch werden viele Techniken zum Computersehen und ihre Ableitung aus dem menschlichen Sehen dargestellt.
2. Viele Beispiele dieser Art mit Hinweisen auf Marrs Modelle sind zu finden in: http://cvcl.mit.edu/sunslides/suns-c10-l1depthcues.pdf.
3. Siehe beispielsweise https://de.wikipedia.org/wiki/Künstliches_neuronales_Netz.
4. Siehe https://web.stanford.edu/class/cs345a/slides/12-clustering.pdf oder http://www.cs.princeton.edu/~schapire/talks/picasso-minicourse.pdf.
5. Eines der ersten Expertensysteme aus den 70er Jahren war MYCIN, das auf medizinische Diagnosen und resultierende Therapievorschläge im Bereich von Infektionskrankheiten spezialisiert war. Siehe https://de.wikipedia.org/wiki/Mycin_%28Expertensystem%29.

, Telemedicus v. 08.01.2019, https://tlmd.in/a/3378

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Newsletter

In Kooperation mit

Kommunikation & Recht

Hosting

Domainfactory