Page - 72 - in Pflegeroboter
Image of the Page - 72 -
Text of the Page - 72 -
72 K. Janowski et al.
Um auf den Gefühlszustand des Nutzers reagieren zu können, muss ein künstlicher
Assistent diesen zuallererst erkennen können. Menschen drücken ihre Gefühle auf viel-
fältige Weise aus, beispielsweise durch Mimik, Tonfall oder Körperhaltung.
Aktuelle Ansätze zur Interpretation von Gesichtsausdrücken zerlegen diese meistens
in einzelne Bausteine, welche jeweils ein markantes Merkmal im Gesicht verformen, wie
beispielsweise die Mundwinkel oder die Augenbrauen. Ein verbreitetes Schema dafür ist
das von Ekman und Friesen entwickelte „Facial Action Coding System“ (Ekman et al.
2002), welches sich an der Gesichtsmuskulatur orientiert und jeder charakteristischen
Bewegung eine so genannte „Action Unit“ zuordnet. Mithilfe von Bildverarbeitungs-
algorithmen können diese Verformungen auf zwei- oder dreidimensionalen Kamera-
bildern identifiziert werden.
Akustische Emotionserkennung betrachtet verschiedene Merkmale wie beispielsweise
die Energie und das Frequenzspektrum einer Spracheingabe (Vogt et al. 2008). Mit-
tels maschineller Lernverfahren können bei geschauspielerten Emotionen unter Labor-
bedingungen sehr gute Ergebnisse erzielt werden. Natürlich auftretende Emotionen sind
dagegen subtiler und schwieriger zu erkennen (Vogt und André 2005). Realistischere
Trainingsdaten erhält man, indem man Gefühle durch externe Reize provoziert, zum Bei-
spiel durch emotionale Videos oder manipulierte Spielsituationen.
Für eine zielgerichtete Reaktion muss das System außerdem in der Lage sein, Rück-
schlüsse über die Ursache der beobachteten Gefühlslage zu ziehen. Beispielsweise ist
dies wichtig für die Unterscheidung, ob der Agent den Nutzer nur aufmuntern soll oder
selbst einen Fehler gemacht hat und sich entschuldigen muss. Dazu muss er relevante
Ziele des Nutzers kennen, Ereignisse in Bezug auf diese Ziele bewerten und wenn mög-
lich auch den Verursacher der Ereignisse identifizieren. Streng genommen erfolgt die
Bewertung bei einem empathischen Agenten nicht aus seiner eigenen Perspektive, son-
dern aus der des Nutzers. Eine wichtige Grundlage hierfür ist das Bewertungsmodell von
Ortony et al. (1988), auch bekannt als „OCC-Modell“ (nach den Namen der drei Auto-
ren). Dieses Modell ordnet über 20 alltägliche Gefühlszustände systematisch deren Aus-
lösern zu, wodurch es gut mit Programmieransätzen zur Handlungsplanung vereinbar ist.
Um selbst Emotionen auszudrücken, besitzen manche Roboter zusätzliche Motoren
zur Bewegung von Mundwinkeln, Augenbrauen, Augenlidern oder auch Ohren unter
einer Silikonhaut oder künstlichem Fell (siehe Abb. 4.2). Andere Roboter, zum Bei-
spiel Buddy6 oder Jibo7, verzichten auf ein mechanisches Gesicht und zeigen stattdessen
stilisierte Animationen auf einem Bildschirm. Ein solcher Roboter sieht zwar deut-
lich technischer aus, ist aber dafür weniger anfällig für Verschleiß und eröffnet zudem
Möglichkeiten zur Personalisierung, da er jedes beliebige Bild anzeigen kann.
Analog zum Gesichtsausdruck ist auch die menschliche Körpersprache auf Roboter
übertragbar, welche entsprechende Gelenke besitzen. Beispielsweise können sie traurig
6http://www.bluefrogrobotics.com/en/buddy/.
7https://www.jibo.com.
back to the
book Pflegeroboter"