Entwicklung und Implementierung der Interaktion zwischen Mensch und KI in hybriden Intelligenz-Systemen zur Reduktion von Biases

Projektziel

Immer mehr Unternehmen setzen bei wichtigen Entscheidungen Daten als Grundlage. Mittlerweile sind die Datenmengen jedoch so groß und komplex, dass sie für einen Menschen nicht mehr überschaubar sind. KI-Systeme bieten hier eine Möglichkeit, um die anfallenden Daten effizienter zu bearbeiten.

Um diese KI-Systeme zu entwickeln, muss jedoch zunächst das notwendige Wissen der Domänenexperten durch gelabelte Daten an die KI transferiert werden. Dieser Prozess ist jedoch anfällig für Qualitätsverlust durch Biases. Dabei handelt es sich um systematisch fehlerhafte Wahrnehmungen Beurteilungen und Handlungen. Diese können unbewusst beim Labeln der Daten mitübertragen werden und führen so zu verzerrten Entscheidungsprozessen der KI-Systeme.

Ziel war daher die Entwicklung und Implementierung der Interaktion zwischen Mensch und KI in hybriden Intelligenz Systemen zur Reduktion von Bias und Noise sowie zur Aggregation von Wissen.
 

Unser Beitrag

In der Projektgruppe Comprehensible AI entwickelten wir Methoden zur Erklärbaren Künstlichen Intelligenz (XAI). Wir konzentrierten uns darauf, Entscheidungsmechanismen von Modellen offenzulegen und identifizierten somit Biases. Bei der Identifikation von Biases fokussierten wir uns nicht nur auf die Algorithmen des Maschinellen Lernens.

Stattdessen gingen wir einen Schritt weiter:
Auch XAI Algorithmen können in Erklärungen Biases induzieren. Um dieses Problem zu lösen, erweiterten wir bestehende Algorithmen und reicherten diese mit formalisierten Hintergrundwissen an. Außerdem suchten wir nach neuen Lösungen, die bei der Reduktion von Biases Wissen von Menschen und aus Daten gleichermaßen berücksichtigen.

 

Projektpartner

  • Fraunhofer IIS (Projektgruppe Comprehensible Artificial Intelligence)
  • vencortex UG
  • Greple GmbH