Forschungsschwerpunkt Emotional Computing and Intelligent Interaction

Emotional Computing

In jüngster Zeit wird Emotionalität immer häufiger als zentraler Bestandteil intelligenter Systeme gesehen. Auch Benutzerschnittstellen und Roboter sollen in der Lage sein, "emotional" zu wirken und Emotionen zu erkennen. In Lehr- und Lernszenarien ist die Wichtigkeit der Empathie offensichtlich und es ist vorstellbar, dass E-Learning-Komponenten von einem Emotionsmodell profitieren können. Auch in der Produktbewertung und Marktforschung ist die direkte Messbarkeit von Emotion sehr wertvoll. Betrachtet man die Entwicklung von Computerspielen, so ist die Tendenz zu intelligenteren und menschenähnlicheren (also auch emotionalen) Computergegnern erkennbar. Auch ist die Qualität der Spracherkennung und der Erzeugung gesprochener Sprache mit einem Emotionsmodell deutlich verbesserbar.

Aus diesen Anwendungsfeldern ergibt sich die Zielsetzung des Forschungsschwerpunkts Emotional Computing. Das Forschungsinteresse gilt den Möglichkeiten der Emotionsmodellierung, -erkennung und -darstellung. Die Anwendungen werden insbesondere durch die im Studium erworbenen Kenntnisse in der Bildverarbeitung, den Methoden der wissensbasierten und lernenden Systeme sowie der Interaktiven Systeme gestützt. Viele Projekte entstehen im Rahmen des Studiums als studentische Forschung.

Forschungsaktivitäten

Organisation und Durchführung des jährlichen Workshops "Emotion and Computing – Current Research and Future Impact" im Rahmen der KI Konferenz. www.emotion-and-computing.de

Laufende Projekte

  • Evaluationsplattform für Emotionserkennungsalgorithmen
    Eine Mimikerkennungssoftware ist in den letzten Jahren in mehreren Studien- und Bachelorarbeiten, u.a. auch in Kooperation mit Bachelorprojekten von Studierenden der German University Cairo (GUC), entwickelt worden und wird kontinuierlich durch weitere Arbeiten erweitert und verbessert. Das Tool enthält Entwicklungen mit Direktauswertung einer Videokamera in Echtzeit und fusioniert heterogene Klassifikationsansätze und Lernverfahren zur Individualisierung der Emotionserkennung.
  • Physiologische Emotionsmessung
    Menschliche Emotionen lassen sich anhand der Mimik, Gestik, Stimme aber auch anhand körperlicher Veränderungen, die nicht sichtbar oder hörbar sind, erkennen. Diese können durch physiologische Sensoren gemessen werden. Beispiele sind der Herzschlag oder die Hautleitfähigkeit, aber auch die Messung von Hirnströmen (EEG). Im Rahmen von studentischen Forschungsprojekten werden Experimente mit diesen Sensoriken gemacht und es wird unter anderem eine annotierte Datenbank von Emotionsbeispielen erstellt.
  • Emotionale Avatare
    Die webbasierte Kundenkommunikation wird derzeit gerne durch Avatare ergänzt. Diese sollen nun in der Lage sein, ihrerseits Emotionen mimisch auszudrücken. Welche Effekte lassen sich dadurch erzielen? Experimentell kann anhand von Beispielszenarien gezeigt werden, dass das Verhalten eines Benutzers durch die Visualisierung eines virtuellen Agenten beeinflusst wird. Dies eröffnet Einsatzbereiche in modernen Mensch-Maschine-Schnittstellen.
  • Simulation und Modellierung emotionalen Verhaltens
    Wie entsteht eine Emotion? Es wurde auf Basis aktueller psychologischer Erkenntnisse ein System entwickelt, welches die Entstehung von Emotionen auf Basis externer Reize modelliert. Dieses Modell wird in Experimentalszenarien getestet und weiterentwickelt.

Abgeschlossene Projekte

  • Kooperatives Forschungsprojekt zur Wirkungsuntersuchung von emotionalen Avataren in modernen Benutzerschnittstellen mit einem Dualen Partner, 2010

Studienarbeiten

Auf der nachfolgenden Seite sind laufende und bereits abgeschlossene Studienarbeiten zu finden.

Kontakt

Prof. Dr. Dirk Reichardt /
Tel.: 0711/1849-4538 /
E-Mail: dirk.reichardt@dhbw-stuttgart.de