DeepDoubt: Weiterentwicklung von Unsicherheitsmaßen zur Erhöhung der Transparenz und Nachvollziehbarkeit im Deep Learning und deren Anwendung auf optische Systeme

Um den Forschungsstandort Deutschland zu sichern und die vielfältigen Anwendungsmöglichkeiten von Künstlicher Intelligenz (KI) in allen Bereichen der Gesellschaft im Sinne eines spürbaren Fortschritts zu fördern, leistet die KI-Strategie einen Beitrag zur Umsetzung der aktuellen Hightech-Strategie 2025. Zusammen mit diversen Digitalisierungsinitiativen wird sie zunehmend zu einem verbreiteten Einsatz von KI-Methoden, oft in Form von Deep Learning (DL), führen. Obwohl DL bahnbrechende Erfolge u.a. in der Vorhersage von Ereignissen verzeichnen kann, wird eine transparente Modellierung von Unsicherheiten bisher kaum berücksichtigt. Weiterhin sind Entscheidungen solcher Methoden schwer nachvollziehbar, wenn sie auf komplexen Eingangsdaten, wie Bildern, angewendet werden.

Modellierung von Unsicherheit in intelligenten Systemen

Um die Nachvollziehbarkeit von Methoden und deren Resultaten zu erhöhen, können bereits heute spezielle Verfahren zur Darstellung genutzt werden. Die fehlende Berücksichtigung der Modellgenauigkeit hat in vielen Fällen aber zur Folge, dass Benutzer von KI-Systemen, diesen zu sehr vertrauen. Insbesondere wenn neue, im Training nicht vorhandene, Situationen auftreten, haben gewöhnliche DL-Verfahren keine Möglichkeit ihre Unsicherheit zu quantifizieren. Gerade im Hinblick auf Verbreitung von DL in kritischen und nicht komplett im Labor simulierbaren Anwendungen, wie dem autonomen Fahren, ist dies nicht akzeptierbar und setzt in der Praxis einen Erkennungsmechanismus für das Verlassen der trainierten und somit bekannten Situationen voraus. In der DL-Forschung wird dieses Thema mit Unsicherheit (engl. Uncertainty) beschrieben (siehe Abb. 1).


Abb. 1: Exemplarische Darstellung von Unsicherheit in einem
intelligenten System: Gebräuchliche Deep Learning Systeme
können keine Unsicherheit zum Ausdruck bringen.
Foto: Lenin Estrada, Unsplash).Caption

Fehlinterpretationen im Rahmen intelligenter Systeme werden auch durch den Zugang zu DL-Verfahren mittels anwenderfreundlicher Tools wie KNIME Analytics Platform häufiger. Für den Einsatz in der Praxis müssen solche Systeme daher ihre Unsicherheit quantifizieren und dem Benutzer transparent darstellen.

Da die Bereitstellung von vielen, annotierten Daten meist aufwendig ist und nur von Experten mit Domänenwissen, wie z.B. Ärzten, Radiologen, etc., durchgeführt werden kann, haben sich Verfahren etabliert, um mit der Knappheit an annotierten Daten umzugehen. Von Interesse sind in diesem Projekt insbesondere: Active-Learning, Wiederverwendung von Modellen und Ausreißererkennung. All diese Verfahren können von einer transparenteren Modellierung der Unsicherheit profitieren.

Skalierbarkeit für die Anwendung im Bereich optischer Systeme

Bisher waren bayesianische, tiefe neuronale Netze, die die Unsicherheit modellieren können, wegen zu hoher Anforderungen an die Rechenzeit, nicht anwendbar. Neuere Näherungsansätze skalieren auch auf tiefe neuronale Netze und sind damit auch im Bereich optischer Systeme einsetzbar.

Im Rahmen des Vorhabens werden durch das Institut für Optische Systeme (IOS) an der HTWG Konstanz sowie KNIME GmbH Methoden für Transparenz, Nachvollziehbarkeit und Erklärbarkeit entwickelt. Ziel dieses Projekts ist es, die Modellunsicherheit im Rahmen von neuronalen Netzen zu quantifizieren und über ein Werkzeug zur Verfügung zu stellen. Darüber hinaus ist eine transparente Entscheidungsfindung im Bereich der optischen Systeme aufgrund großer Datenmengen nicht effizient modellierbar - Dies wird im Rahmen des Projekts angegangen. Die Nutzung von Unsicherheitsmaßen kann auch gewinnbringend im Active-Learning angewendet werden. Dabei ist über die reine Methodenentwicklung hinaus eine grafische Schnittstelle erforderlich, um diese Methoden für Anwender (Domänen-Experten) verfügbar zu machen. Dies ist insbesondere im Bereich der Qualitätssicherung, Produkthaftung sowie Nutzung von KI im medizinischen Umfeld wichtig, um Fehlentscheidungen effektiv zu verhindern. Durch die assoziierten Unternehmen Siemens Logistics GmbH, Katamaran-Rederei Bodensee GmbH & Co. KG und exorbyte GmbH werden die entwickelten Methoden darüber hinaus industrienah im Bereich der Oberflächeninspektion zur Erkennung von Produktionsfehlern und im Rahmen der Umgebungserfassung erprobt.

Die im Rahmen des Projektes entwickelten Funktionen werden als quelloffene (“open source”) Erweiterungen für KNIME Analytics Platform veröffentlicht und sind somit unmittelbar für Wirtschaft und Gesellschaft verfügbar.

Assoziierte Partner:

  • KNIME GmbH
  • Siemens Logistics GmbH
  • Katamaran-Rederei Bodensee GmbH & Co. KG
  • exorbyte GmbH