Nachvollziehbarkeit und Vertrauenswürdigkeit von
KI-Systemen

Vertrauenswürdigkeit als notwendige Voraussetzung für den Einsatz von maschinellem Lernen in der Praxis

Erklärbare KI wird als das zentrale Zukunftsthema der KI-Forschung angesehen, die "3rd Wave of AI" in Nachfolge als Kombination aus wissenbasierten Systemen (1st Wave) und statistischem Lernen (2nd Wave) zu beschreiben. Zunehmend wird deutlich, dass rein datengetriebenes Maschinelles Lernen in vielen Anwendungsbereichen nicht oder nicht ohne Kombination weiteren Methoden einsetzbar ist.

In der Projektgruppe Comprehensible Artificial Intelligence (CAI) entwickeln wir in einer Kooperation des Fraunhofer IIS und der Universität Bamberg Methoden für erklärbares maschinelles Lernen:

  • Wir arbeiten an hybriden Ansätzen des maschinellen Lernens, bei denen blackbox Verfahren, wie (tiefe) neuronale Netze mit Methoden des interpretierbaren maschinellen Lernens (whitebox Verfahren) kombiniert werden. Solche Methoden erlauben die Kombination von Logik und Lernen, insbesondere die Berücksichtigung von Expertenwissen beim Lernen.
  • Wir entwickeln Methoden des interaktiven und inkrementellen Lernens, für Anwendungsbereiche, in denen nur wenige Daten vorliegen und bei denen das Labeling von Daten problematisch ist.
  • Wir entwickeln Algorithmen zur Generierung multimodaler Erklärungen, insbesondere zur Kombination von visuellen und sprachlichen Erklärungen und berücksichtigen dabei Erkenntnisse aus der Kognitionsforschung.

Aktuelle Anwendungsbereiche sind:

Explainable AI Videopodcast

Gestalten Sie die Zukunft von KI in der Industrie aktiv mit und lernen Sie unseren Demonstrator kennen!  

Comprehensible
Artificial Intelligence
Publikationen

Hier finden Sie unsere Veröffentlichungen gegliedert nach Jahren.

Unsere Forschungsthemen

Comprehensible AI - Unsere Forschungsthemen

Partner und Projekte

 

Projekt HIX

Ziel des Förderprojektes HIX ist die Entwicklung und Implementierung der Interaktion zwischen Mensch und KI in hybriden Intelligenz Systemen zur Reduktion von Bias und Noise sowie zur Aggregation von Wissen.

Laufzeit: Oktober 2021 - September 2023

 

Projekt hKI-Chemie

Ziel des Projektes hKI-Chemie ist die unterstützte Datenverarbeitung durch KI-Systeme in der chemischen Industrie. Dabei sollen Mitarbeiter und Mitarbeiterinnen darin unterstützt werden, frühzeitig Prozessprobleme zu erkennen und geeignete Lösungen auszuwählen.

Laufzeit: Juni 2021 - Juni 2024

 

TraMeExCo

Ziel des BMBF-Projektes TraMeExCo (Transparent Medical Expert Companion) ist die Erforschung und Entwicklung geeigneter neuer Methoden zum robusten und erklärbaren Maschinellen Lernen auf komplementären Anwendungen (Digitale Pathologie, Schmerzanalyse, Kardiologie) aus dem Bereich der Medizintechnik.

Laufzeit: September 2018 - August 2021

 

ADA Lovelace Center for Analytics, Data and Applications

Neues Kompetenzzentrum für Data Analytics und KI in der Industrie
Das ADA Lovelace Center verbindet auf einzigartige Weise KI-Forschung mit KI-Anwendungen der Industrie. Hier können sich die Partner untereinander vernetzen, vom Know-how des anderen profitieren und an gemeinsamen Projekten arbeiten

 

Projektpartner Universität Bamberg

Prof. Dr. Ute Schmid leitet die Gruppe "Kognitive Systeme" an der Universität Bamberg

News-Archiv

Hier finden Sie News zum Thema Vertrauenswürdige KI.

News

23.6.23, Cardio News

Die Schizophrenie des ChatGPT

11. - 12. Mai 2023, Siemens Healthineers Diagnostik Campus

ChatGPT & Co. – KI in der medizinischen
Diagnostik

10.5.2023, 19:00 Uhr

KI-Meetup Bamberg

Impulsthema: Vertrauenswürdige & verständliche KI 

Dr. Stephan Scheele (Fraunhofer IIS), Simon Schramm (Universität Bamberg)

 

Conference on Optimization and Machine Learning in Industry

Die diesjährige »Conference on Optimization and Machine Learning in Industry« fand mit der Zielsetzung einer Verknüpfung von Wissenschaft und Praxis am 15.03. in Nürnberg statt. Sie lieferte einen spannenden Überblick über den aktuellen Stand in der Forschung. Neben interessanten Vorträgen über verschiedene Projekte im Bereich Machine Learning und Optimization gab es zudem eine Ausstellung der verschiedenen Kompetenzsäulen des ADA Lovelace Centers.

Hier konnte die Fraunhofer-Gruppe Comprehensible AI im Rahmen der ADA-Kompetenzsäule Trustworthy AI ihren Demonstrator zu Explainable AI präsentieren. Dieser zeigte multimodale Erklärungsmethoden für bildbasierte Analytik im industriellen Kontext. So bekamen die Besucher einen Einblick, wie es möglich ist, Entscheidungsprozesse einer KI erklärbar und verständlich zu machen. Aufschlussreiche Gespräche am Stand zeigten, dass es viel Interesse an den Möglichkeiten der erklärbaren KI gibt, sowie viele Bereiche, in denen weitere Entwicklungen denkbar wären.

Die CAI-Gruppe bedankt sich herzlich bei allen Beteiligten für diesen erfahrungsreichen Tag.