Explainable AI Demonstrator

Unsere Forschungsgruppe Comprehensible Artificial Intelligence (CAI) hat diesen Demonstrator entwickelt, um aufzuzeigen, wie innovative Methoden der Erklärbaren Künstlichen Intelligenz eingesetzt werden können, um die Nachvollziehbarkeit und Vertrauenswürdigkeit von KI-Systemen zu verbessern. An einem Usecase aus der bildbasierten Qualitätskontrolle zeigen wir auf, wie der Einsatz von maschinellem Lernen in der Industrie sinnvoll durch XAI-Methoden erweitert werden kann, um Unternehmen zu mehr Effizienz und höherer Produktqualität zu verhelfen.

Wir laden Sie herzlich ein, unseren Videopodcast zu erkunden und aktiv an der Gestaltung der Zukunft von KI in der Industrie teilzunehmen.  

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: https://policies.google.com/privacy

Was erwartet Sie in unserem Videopodcast

  • Erklärungsmethoden für bildbasierte Analytik: Unser Demonstrator präsentiert innovative Ansätze zur Erklärung von KI-Entscheidungen im industriellen Kontext. Wir konzentrieren uns auf Nachvollziehbarkeit bei der Defektklassifikation von Bauteilen mithilfe eines Convolutional Neural Networks (CNN).
  • Lokale Erklärungen mit Near Hits und Near Misses: Wir zeigen, wie wir lokale Erklärungen erstellen, indem wir zu einer gegebenen Bildinstanz eines Bauteils ähnliche Beispiele derselben Klasse (Near Hits) sowie der Gegenklasse (Near Misses) präsentieren. Dies ermöglicht die Nachvollziehbarkeit der Entscheidungsgrenzen des gelernten Modells als Grundlage für eventuell notwendige Adaptation durch spezifische Ergänzung der Trainingsbeispiele.
  • Globale Erklärungen mit Prototypen: Wir stellen globale Erklärungen vor, indem wir eine typische Stellvertreterinstanz (Prototyp) derselben Klasse darstellen. Dadurch erhalten Sie einen allgemeinen Einblick in die Entscheidungskriterien der Klassifikationsmodelle.
  • Relevanzbasierte visuelle und verbalisierte Erklärungen: Unser Demonstrator kombiniert relevanzbasierte visuelle Erklärungen, die mithilfe von Heatmaps die für einen Defekt relevanten Regionen in Bildern hervorheben, mit textuellen Erklärungen. Letztere basieren auf logischen Theorien und bieten tiefere Einblicke in die Zusammenhänge von Defektmustern, die über klassische relevanzbasierte Methoden hinausgehen.
     

Warum ist das wichtig?

Unsere beiden Erklärungsmethoden ermöglichen Anwendern und Fachexperten ein tieferes Verständnis für die zugrunde liegenden Klassifikationsmodelle. Sie können dadurch die Grenzen des gelernten Blackbox-Modells besser einschätzen, Schwächen erkennen und durch Feedback zur Modellverbesserung beitragen. Damit leisten wir einen wichtigen Beitrag für mehr Transparenz und Nachvollziehbarkeit und in der Konsequenz für eine Erhöhung des Vertrauens in die Anwendung von KI-Systemen in der Industrie.