Web-Books
im Austria-Forum
Austria-Forum
Web-Books
Technik
Pflegeroboter
Seite - 72 -
  • Benutzer
  • Version
    • Vollversion
    • Textversion
  • Sprache
    • Deutsch
    • English - Englisch

Seite - 72 - in Pflegeroboter

Bild der Seite - 72 -

Bild der Seite - 72 - in Pflegeroboter

Text der Seite - 72 -

72 K. Janowski et al. Um auf den Gefühlszustand des Nutzers reagieren zu können, muss ein künstlicher Assistent diesen zuallererst erkennen können. Menschen drücken ihre Gefühle auf viel- fältige Weise aus, beispielsweise durch Mimik, Tonfall oder Körperhaltung. Aktuelle Ansätze zur Interpretation von Gesichtsausdrücken zerlegen diese meistens in einzelne Bausteine, welche jeweils ein markantes Merkmal im Gesicht verformen, wie beispielsweise die Mundwinkel oder die Augenbrauen. Ein verbreitetes Schema dafür ist das von Ekman und Friesen entwickelte „Facial Action Coding System“ (Ekman et al. 2002), welches sich an der Gesichtsmuskulatur orientiert und jeder charakteristischen Bewegung eine so genannte „Action Unit“ zuordnet. Mithilfe von Bildverarbeitungs- algorithmen können diese Verformungen auf zwei- oder dreidimensionalen Kamera- bildern identifiziert werden. Akustische Emotionserkennung betrachtet verschiedene Merkmale wie beispielsweise die Energie und das Frequenzspektrum einer Spracheingabe (Vogt et al. 2008). Mit- tels maschineller Lernverfahren können bei geschauspielerten Emotionen unter Labor- bedingungen sehr gute Ergebnisse erzielt werden. Natürlich auftretende Emotionen sind dagegen subtiler und schwieriger zu erkennen (Vogt und André 2005). Realistischere Trainingsdaten erhält man, indem man Gefühle durch externe Reize provoziert, zum Bei- spiel durch emotionale Videos oder manipulierte Spielsituationen. Für eine zielgerichtete Reaktion muss das System außerdem in der Lage sein, Rück- schlüsse über die Ursache der beobachteten Gefühlslage zu ziehen. Beispielsweise ist dies wichtig für die Unterscheidung, ob der Agent den Nutzer nur aufmuntern soll oder selbst einen Fehler gemacht hat und sich entschuldigen muss. Dazu muss er relevante Ziele des Nutzers kennen, Ereignisse in Bezug auf diese Ziele bewerten und wenn mög- lich auch den Verursacher der Ereignisse identifizieren. Streng genommen erfolgt die Bewertung bei einem empathischen Agenten nicht aus seiner eigenen Perspektive, son- dern aus der des Nutzers. Eine wichtige Grundlage hierfür ist das Bewertungsmodell von Ortony et al. (1988), auch bekannt als „OCC-Modell“ (nach den Namen der drei Auto- ren). Dieses Modell ordnet über 20 alltägliche Gefühlszustände systematisch deren Aus- lösern zu, wodurch es gut mit Programmieransätzen zur Handlungsplanung vereinbar ist. Um selbst Emotionen auszudrücken, besitzen manche Roboter zusätzliche Motoren zur Bewegung von Mundwinkeln, Augenbrauen, Augenlidern oder auch Ohren unter einer Silikonhaut oder künstlichem Fell (siehe Abb. 4.2). Andere Roboter, zum Bei- spiel Buddy6 oder Jibo7, verzichten auf ein mechanisches Gesicht und zeigen stattdessen stilisierte Animationen auf einem Bildschirm. Ein solcher Roboter sieht zwar deut- lich technischer aus, ist aber dafür weniger anfällig für Verschleiß und eröffnet zudem Möglichkeiten zur Personalisierung, da er jedes beliebige Bild anzeigen kann. Analog zum Gesichtsausdruck ist auch die menschliche Körpersprache auf Roboter übertragbar, welche entsprechende Gelenke besitzen. Beispielsweise können sie traurig 6http://www.bluefrogrobotics.com/en/buddy/. 7https://www.jibo.com.
zurück zum  Buch Pflegeroboter"
Pflegeroboter
Titel
Pflegeroboter
Autor
Oliver Bendel
Verlag
Springer Gabler
Datum
2018
Sprache
deutsch
Lizenz
CC BY 4.0
ISBN
978-3-658-22698-5
Abmessungen
17.3 x 24.6 cm
Seiten
278
Kategorie
Technik
Web-Books
Bibliothek
Datenschutz
Impressum
Austria-Forum
Austria-Forum
Web-Books
Pflegeroboter