Affective Sensing

Vernetzte Sensorik zur Verbesserung der Lebensqualität und Gesundheitsversorgung

Menschliche Emotionen und Affekte maschinell zu erkennen, interpretieren und verarbeiten ist eines der Kernthemen des Bereichs »Smart Sensing and Electronics«. Seit vielen Jahren arbeiten wir daran, vernetzte Sensorlösungen, emotionsadaptive Technologien und wahrnehmungsbasierte Nutzerschnittstellen zu entwickeln und leisten damit einen wesentlichen Beitrag zur Mensch-Maschine-Kommunikation.

Hot Topics

 

Projekt

OPTAPEB

Optimierung der Psychotherapie durch Agentengeleitete Patientenzentrierte Emotionsbewältigung

 

Vortrag Dr.-Ing. Jens Garbas

AI gets emotional – Technology learns to feel

Dr. Jens-Uwe Garbas (Fraunhofer IIS) talks at the annual international science and technology conference FUTURAS IN RES about AI and empathy & Human-Machine-Interaction.

 

W wie Wissen – ARD Mediathek

»Gesichtserkennung – Ich sehe, was du fühlst!«

»Automatisierte Gesichtserkennung heißt heute nicht nur "Ich weiß, wer Du bist", sondern auch, "Ich weiß, wie Du fühlst". Es sind verschiedene Aspekte im Gesicht, die Emotionen ausmachen«, so Dr. Jens-Uwe Garbas, Leiter des Projekts.

 

TraMeExCo

Ziel des BMBF-Projektes TraMeExCo (Transparent Medical Expert Companion) ist die Erforschung und Entwicklung geeigneter neuer Methoden zum robusten und erklärbaren Maschinellen Lernen auf komplementären Anwendungen (Digitale Pathologie, Schmerzanalyse, Kardiologie) aus dem Bereich der Medizintechnik.

ERIK – Mit Robotern emotionale und soziale Kompetenzen trainieren

Entwicklung einer Roboterplattform zur Unterstützung neuer Interaktionsstrategien bei Kindern mit eingeschränkten sozio-emotionalen Fähigkeiten

»ERIK« ist ein von BMBF gefördertes Forschungsprojekt, bei dem die Technologie SHORE® gekoppelt mit optischer Pulserkennung auf eine Roboterplattform gebracht wird. Sie ermöglicht neue Interaktionsstrategien in der Therapie von Kindern mit eingeschränkten sozio-emotionalen Fähigkeiten.

Im Gegensatz zu bisherigen therapeutischen Ansätzen soll die Roboterplattform in der Lage sein, auf der Basis von Mimik, Sprache und Puls des Kindes dessen Emotionen zu erkennen und ein Echtzeitfeedback zu generieren. So kann das Robotersystem das Kind dabei unterstützen, die Emotionen seines Gegenübers selbst richtig zu erkennen und darzustellen und so die sozio-emotionalen Kompetenzen des autistischen Kindes steigern.

Durch die offene Gestaltung der Schnittstellen der Roboterplattform kann das Therapiekonzept auch an die Bedürfnisse von Demenzpatienten oder Patienten mit geistigen Behinderungen angepasst werden und ermöglicht so einen breiten Einsatzbereich.

Menschenzentrierte Technologien im Überblick

 

Bild- und videobasierte Lösungen zur echtzeitfähigen Analyse von Mimik und Basisemotionen

 

Integrierte Sensorik für miniaturisierte und stromsparende Lösungen