Affective Sensing

Vernetzte Sensorik zur Verbesserung der Lebensqualität und Gesundheitsversorgung

Menschliche Emotionen und Affekte maschinell zu erkennen, interpretieren und verarbeiten ist eines der Kernthemen des Bereichs »Smart Sensing and Electronics«. Seit vielen Jahren arbeiten wir daran, vernetzte Sensorlösungen, emotionsadaptive Technologien und wahrnehmungsbasierte Nutzerschnittstellen zu entwickeln und leisten damit einen wesentlichen Beitrag zur Mensch-Maschine-Kommunikation.

Call for Machine Learning Challenge

UbiTtention Cognitive Load Machine Learning Challenge

On behalf of the organizing team we are happy to invite you to the UbiTtention Cognitive Load Machine Learning Challenge!

To prevent undesirable effects of attention grabbing at times when a user is occupied with a difficult task, ubiquitous computing devices should be aware of the user’s cognitive load.

To advance the field of cognitive load inference in ubiquitous  computing, we organize a public machine learning challenge in which competitors have to infer cognitive load from sensor data. The goal of this machine learning challenge is to recognize 2 levels of cognitive load from the sensor data of a wearable wrist-band (Microsoft Band 2). The participants will have to develop a machine-learning pipeline that will process the sensor data, create models and output the recognized cognitive load.

The best three teams will also receive prizes!

Results will be presented at UbiTtention 2020, a workshop to be held in conjunction with UbiComp 2020 Cancún, México in September 12-13. (Note: of course, conference organizers are aware of the ongoing developments with COVID-19 and will announce any necessary changes on the respective websites!)

We would be happy if you would participate!

Hot Topics

 

KI2020 – 43rd German Conference on Artificial Intelligence

September 21-25, 2020, Bamberg, Germany

 

Projekt

OPTAPEB

Optimierung der Psychotherapie durch Agentengeleitete Patientenzentrierte Emotionsbewältigung

 

Vortrag Dr.-Ing. Jens Garbas

AI gets emotional – Technology learns to feel

Dr. Jens-Uwe Garbas (Fraunhofer IIS) talks at the annual international science and technology conference FUTURAS IN RES about AI and empathy & Human-Machine-Interaction.

 

W wie Wissen – ARD Mediathek

»Gesichtserkennung – Ich sehe, was du fühlst!«

»Automatisierte Gesichtserkennung heißt heute nicht nur "Ich weiß, wer Du bist", sondern auch, "Ich weiß, wie Du fühlst". Es sind verschiedene Aspekte im Gesicht, die Emotionen ausmachen«, so Dr. Jens-Uwe Garbas, Leiter des Projekts.

 

TraMeExCo

Ziel des BMBF-Projektes TraMeExCo (Transparent Medical Expert Companion) ist die Erforschung und Entwicklung geeigneter neuer Methoden zum robusten und erklärbaren Maschinellen Lernen auf komplementären Anwendungen (Digitale Pathologie, Schmerzanalyse, Kardiologie) aus dem Bereich der Medizintechnik.

ERIK – Mit Robotern emotionale und soziale Kompetenzen trainieren

Entwicklung einer Roboterplattform zur Unterstützung neuer Interaktionsstrategien bei Kindern mit eingeschränkten sozio-emotionalen Fähigkeiten

»ERIK« ist ein von BMBF gefördertes Forschungsprojekt, bei dem die Technologie SHORE® gekoppelt mit optischer Pulserkennung auf eine Roboterplattform gebracht wird. Sie ermöglicht neue Interaktionsstrategien in der Therapie von Kindern mit eingeschränkten sozio-emotionalen Fähigkeiten.

Im Gegensatz zu bisherigen therapeutischen Ansätzen soll die Roboterplattform in der Lage sein, auf der Basis von Mimik, Sprache und Puls des Kindes dessen Emotionen zu erkennen und ein Echtzeitfeedback zu generieren. So kann das Robotersystem das Kind dabei unterstützen, die Emotionen seines Gegenübers selbst richtig zu erkennen und darzustellen und so die sozio-emotionalen Kompetenzen des autistischen Kindes steigern.

Durch die offene Gestaltung der Schnittstellen der Roboterplattform kann das Therapiekonzept auch an die Bedürfnisse von Demenzpatienten oder Patienten mit geistigen Behinderungen angepasst werden und ermöglicht so einen breiten Einsatzbereich.