Web-Books
in the Austria-Forum
Austria-Forum
Web-Books
Technik
Pflegeroboter
Page - 72 -
  • User
  • Version
    • full version
    • text only version
  • Language
    • Deutsch - German
    • English

Page - 72 - in Pflegeroboter

Image of the Page - 72 -

Image of the Page - 72 - in Pflegeroboter

Text of the Page - 72 -

72 K. Janowski et al. Um auf den Gefühlszustand des Nutzers reagieren zu können, muss ein künstlicher Assistent diesen zuallererst erkennen können. Menschen drücken ihre Gefühle auf viel- fältige Weise aus, beispielsweise durch Mimik, Tonfall oder Körperhaltung. Aktuelle Ansätze zur Interpretation von Gesichtsausdrücken zerlegen diese meistens in einzelne Bausteine, welche jeweils ein markantes Merkmal im Gesicht verformen, wie beispielsweise die Mundwinkel oder die Augenbrauen. Ein verbreitetes Schema dafür ist das von Ekman und Friesen entwickelte „Facial Action Coding System“ (Ekman et al. 2002), welches sich an der Gesichtsmuskulatur orientiert und jeder charakteristischen Bewegung eine so genannte „Action Unit“ zuordnet. Mithilfe von Bildverarbeitungs- algorithmen können diese Verformungen auf zwei- oder dreidimensionalen Kamera- bildern identifiziert werden. Akustische Emotionserkennung betrachtet verschiedene Merkmale wie beispielsweise die Energie und das Frequenzspektrum einer Spracheingabe (Vogt et al. 2008). Mit- tels maschineller Lernverfahren können bei geschauspielerten Emotionen unter Labor- bedingungen sehr gute Ergebnisse erzielt werden. Natürlich auftretende Emotionen sind dagegen subtiler und schwieriger zu erkennen (Vogt und André 2005). Realistischere Trainingsdaten erhält man, indem man Gefühle durch externe Reize provoziert, zum Bei- spiel durch emotionale Videos oder manipulierte Spielsituationen. Für eine zielgerichtete Reaktion muss das System außerdem in der Lage sein, Rück- schlüsse über die Ursache der beobachteten Gefühlslage zu ziehen. Beispielsweise ist dies wichtig für die Unterscheidung, ob der Agent den Nutzer nur aufmuntern soll oder selbst einen Fehler gemacht hat und sich entschuldigen muss. Dazu muss er relevante Ziele des Nutzers kennen, Ereignisse in Bezug auf diese Ziele bewerten und wenn mög- lich auch den Verursacher der Ereignisse identifizieren. Streng genommen erfolgt die Bewertung bei einem empathischen Agenten nicht aus seiner eigenen Perspektive, son- dern aus der des Nutzers. Eine wichtige Grundlage hierfür ist das Bewertungsmodell von Ortony et al. (1988), auch bekannt als „OCC-Modell“ (nach den Namen der drei Auto- ren). Dieses Modell ordnet über 20 alltägliche Gefühlszustände systematisch deren Aus- lösern zu, wodurch es gut mit Programmieransätzen zur Handlungsplanung vereinbar ist. Um selbst Emotionen auszudrücken, besitzen manche Roboter zusätzliche Motoren zur Bewegung von Mundwinkeln, Augenbrauen, Augenlidern oder auch Ohren unter einer Silikonhaut oder künstlichem Fell (siehe Abb. 4.2). Andere Roboter, zum Bei- spiel Buddy6 oder Jibo7, verzichten auf ein mechanisches Gesicht und zeigen stattdessen stilisierte Animationen auf einem Bildschirm. Ein solcher Roboter sieht zwar deut- lich technischer aus, ist aber dafür weniger anfällig für Verschleiß und eröffnet zudem Möglichkeiten zur Personalisierung, da er jedes beliebige Bild anzeigen kann. Analog zum Gesichtsausdruck ist auch die menschliche Körpersprache auf Roboter übertragbar, welche entsprechende Gelenke besitzen. Beispielsweise können sie traurig 6http://www.bluefrogrobotics.com/en/buddy/. 7https://www.jibo.com.
back to the  book Pflegeroboter"
Pflegeroboter
Title
Pflegeroboter
Author
Oliver Bendel
Publisher
Springer Gabler
Date
2018
Language
German
License
CC BY 4.0
ISBN
978-3-658-22698-5
Size
17.3 x 24.6 cm
Pages
278
Category
Technik
Web-Books
Library
Privacy
Imprint
Austria-Forum
Austria-Forum
Web-Books
Pflegeroboter