Erklärbares Maschinelles Lernen in der Medizin

Transparente KI-Entscheidungen in der Medizintechnik

Ziel

Ziel des BMBF-Projekts TraMeExCo (Transparent Medical Expert Companion) ist die Erforschung und Entwicklung geeigneter neuer Methoden zum robusten und erklärbaren Maschinellen Lernen (engl. „explainable AI, XAI") auf komplementären Anwendungen (Digitale Pathologie, Schmerzanalyse, Kardiologie) aus dem Bereich der Medizintechnik. Das geplante System soll als Diagnoseunterstützung und Entscheidungshilfe für Ärzte und klinisches Personal dienen.

 

Partner

Universität Bamberg | Professur für Kognitive Systeme

  • An der Universität Bamberg steht die Konzeption, Umsetzung und Erprobung von Verfahren zur Erklärbarkeit von diagnostischen Systementscheidungen mit Local Interpretable Model-agnostic Explanations (LIME), Layerwise Relevance Propagation (LRP) und Inductive logic programming (ILP) im Fokus.   

Fraunhofer HHI | Abteilung für Video Codierung & Analyse

  • Am Fraunhofer HHI werden die Ansätze von Layerwise Relevance Propagation (LRP) weiterentwickelt.

Fraunhofer IIS | Bereich Smart Sensing and Electronics

  • Im Geschäftsfeld Digital Health Systems werden Ansätze des „Few Shot Learnings“ und „Heat Maps“ für die Digitale Pathologie untersucht und implementiert. „Long-term-Short-term“ Netze dienen der Bestimmung der Herzratenvariabilität auf verrauschten EKG und PGG Daten. 
  • Im Geschäftsfeld Facial Analysis Solutions werden zusammen mit der Universität Bamberg Verfahren des „Bayesian Deep Learning“ auf Schmerzvideos erforscht. Dabei kommt das sogenannte Facial Action Coding System (FACS) nach Ekman und Friesen zum Einsatz, bei dem jede individuelle Muskelbewegung (Action Unit) wie bspw. das Zusammenziehen der Augenbrauen, beschrieben, interpretiert und erkannt wird. Die automatische Erkennung bestimmter Action Units lässt auf Schmerz schließen.

Motivation

Im Bereich der Medizintechnik liegt die besondere Herausforderung in

  • der robusten, nachvollziehbaren Analyse, Auswertung und Interpretation der Rohdaten (Videos, EKG-Daten, Mikroskopiebilder), und
  • der damit verbundenen Transparenz und Erklärung der Systementscheidungen gegenüber dem klinischen Fachpersonal

Als Grundlage dienen geeignete Verfahren der Künstlichen Intelligenz, wie „Deep Learning“, „Bayesian Deep Learning“ und „Few Shot Learning“.

Da die Eingangsdaten oftmals Störartefakte bspw. aufgrund wechselnder Lichtverhältnisse oder Geräusche aufweisen, spielt die Integration von Unsicherheitsmodellierungen eine große Rolle, um damit eine Fehlerabschätzung der Vorhersagen zu ermitteln. Als Fallbeispiele werden dabei zwei Szenarien der klinischen Routineversorgung adressiert (Schmerzanalyse, Pathologie).

Förderung der Erklärbarkeit von KI in der Medizin

Schmerzanalyse auf Basis von FACS
Bestimmung der Action Units für die Schmerzanalyse
© Lucey, Patrick, et al. "Painful Data: The UNBC-McMaster Shoulder Pain Expression Archive Database." Face and Gesture 2011. IEEE, 2011.
Action Unit Classification (AU) zur Schmerz-Einschätzung

Um die klinischen Ansprüche an medizinische Assistenzsysteme zu erfüllen, müssen die getroffenen Systementscheidungen transparent und eindeutig nachvollziehbar sein:

  • Um dies zu gewährleisten, nutzen wir unsere Erfahrung in der Anwendung von black-box-Verfahren wie Deep Neural Networks (DNN’s), um eine hohe Sensitivität (Trefferquote) und Spezifität (wenig Fehlalarme) bei der Erkennung und Training der Klassifikatoren zu erreichen
  • Durch die Integration von Lernansätzen wie Bayesian Deep Learning werden Unsicherheiten des Systems und der Daten (epistemische und aleatorische Unsicherheiten) modelliert
  • Mit Few-Shot-Trainingsansätzen werden Machine Learning Modelle anhand einiger weniger Datensätze hinsichtlich Klassifikation, Identifikation und Segmentierung trainiert
  • Um die Leistungsfähigkeit neuronaler Netze zu steigern integrieren wir "Long Short-Term Memory" (LSTM) in neuronale Netze
  • Um die getroffenen Entscheidungen schlussendlich erklärbar zu machen, werden Verfahren wie „Heat Maps“, „Layerwise Relevance Propagation“ (LRP) und „Inductive logic programming“ (ILP) untersucht und eingesetzt.

Veröffentlichungen

 

 

Presse