Entwicklung und Implementierung der Interaktion zwischen Mensch und KI in hybriden Intelligenz-Systemen zur Reduktion von Biases

Projektziel

Immer mehr Unternehmen setzen bei wichtigen Entscheidungen Daten als Grundlage. Mittlerweile sind die Datenmengen jedoch so groß und komplex, dass sie für einen Menschen nicht mehr überschaubar sind. KI-Systeme bieten hier eine Möglichkeit, um die anfallenden Daten effizienter zu bearbeiten.

Um diese KI-Systeme zu entwickeln, muss jedoch zunächst das notwendige Wissen der Domänenexperten durch gelabelte Daten an die KI transferiert werden. Dieser Prozess ist jedoch anfällig für Qualitätsverlust durch Biases. Dabei handelt es sich um systematisch fehlerhafte Wahrnehmungen Beurteilungen und Handlungen. Diese können unbewusst beim Labeln der Daten mitübertragen werden und führen so zu verzerrten Entscheidungsprozessen der KI-Systeme.

Ziel ist daher die Entwicklung und Implementierung der Interaktion zwischen Mensch und KI in hybriden Intelligenz Systemen zur Reduktion von Bias und Noise sowie zur Aggregation von Wissen.
 

Unser Beitrag

Die Projektgruppe Comprehensible AI entwickelt Methoden zur Erklärbaren Künstlichen Intelligenz (XAI). Wir konzentrieren uns darauf, Entscheidungsmechanismen von Modellen offenzulegen und identifizieren somit Biases. Bei der Identifikation von Biases fokussieren wir uns nicht nur auf die Algorithmen des Maschinellen Lernens.

Stattdessen gehen wir einen Schritt weiter:
Uns ist bewusst, dass auch XAI Algorithmen Biases in Erklärungen induzieren können. Um dieses Problem zu lösen, erweitern wir bestehende Algorithmen und reichern diese mit formalisierten Hintergrundwissen an. Außerdem suchen wir nach neuen Lösungen, die bei der Reduktion von Biases Wissen von Menschen und aus Daten gleichermaßen berücksichtigen.

 

Projektpartner

  • Fraunhofer IIS (Projektgruppe Comprehensible Artificial Intelligence)
  • vencortex UG
  • Greple GmbH