Seite - (000117) - in Autonomes Fahren - Technische, rechtliche und gesellschaftliche Aspekte
Bild der Seite - (000117) -
Text der Seite - (000117) -
1056.2
Der Faktor Mensch im autonomen Fahrzeug
keit technischer Systeme gewinnt dieser Aspekt zunehmend an Bedeutung. Erfahrungen aus
unterschiedlichen Domänen, wie z. B. der Luftfahrt, mit der (Teil-)Automatisierung von
technischen Systemen verdeutlichen, dass die Sicherheit und Zuverlässigkeit derartiger
Systeme nicht allein durch die Optimierung technischer Komponenten erreicht werden kann.
Vielmehr wird die Verlässlichkeit automatisierter Systeme maßgeblich von der Qualität der
Interaktion zwischen Mensch und Maschine bestimmt. Dies gilt im Beson
deren für Situa-
tionen, in denen dem Menschen die Aufgabe zukommt, Fehler des tech
nischen Systems zu
korrigieren und bei Ausfällen oder Störungen die Systemkontrolle zu übernehmen.
Im Zuge der Automatisierung erfolgt eine Verlagerung von Funktionen auf technische
Systeme, die die Rolle und erforderlichen Kompetenzen des Menschen wesentlich ver-
ändert. So übernehmen in modernen Flugzeugcockpits Computersysteme (z. B. Flight-
Management-System oder Autopilot) Aufgaben, die früher von der Cockpitbesatzung aus-
geführt wurden. Die Anforderungen an den Piloten verschieben sich somit von aktiven
manuellen Steuerungsaufgaben hin zu Tätigkeiten der Programmierung und Überwachung
der Flugzeugautomation. Diese auch als leitende Kontrolle (supervisory control, [4]) be-
zeichnete Überwachungsfunktion des Menschen führte z. B. in der Luftfahrt zur Entlastung
der Piloten und bedeutsamen Steigerung der Flugsicherheit [5]. Gleichzeitig haben die
psychologischen Folgen der passiven Rolle des Systemüberwachers wie reduzierte Auf-
merksamkeit oder Aktivierung massive Sicherheitsprobleme verursacht [6]. Bainbridge [7]
spricht in diesem Zusammenhang von der „Ironie der Automatisierung“ – einerseits werden
Systemfunktionen aufgrund der Fehlerhaftigkeit des Menschen automatisiert, und ander-
seits soll genau dieser Mensch das System überwachen und im Notfall als Rückfall option
zur Verfügung stehen.
Die aus dem Gestaltungskonzept der leitendenden Kontrolle entstehenden Probleme
sind in dem Forschungsgebiet „Human Factors“ umfänglich dokumentiert und werden
unter dem Begriff „Out-of-the-loop-unfamiliarity“ zusammengefasst (OOTLUF, [8]). Die
negativen Folgen der Entkoppelung des Menschen von der direkten Steuerung und Kon-
trolle beziehen sich insbesondere auf drei Aspekte, die in unterschiedlichen Anwendungs-
kontexten identifiziert wurden: mangelndes bzw. übersteigertes Vertrauen in die Automa-
tion [9], Verlust manueller und kognitiver Fertigkeiten [10] sowie Schwierigkeiten bei der
Aufrechterhaltung eines angemessenen Situations- und Systembewusstseins [11]. Unange-
messenes Vertrauen kann darin resul
tieren, dass automatisierte Systeme nur unzureichend
überwacht oder genutzt werden. Das Vertrauen in eine Automation wird von der Zuver-
lässigkeit, der Nachvollziehbarkeit und der wahrgenommenen Nützlichkeit beeinflusst. Die
Folgen des Verlusts manueller und kognitiver Fertigkeiten werden hingegen erst dann
salient, wenn der Nutzer im Falle eines Automationsfehlers plötzlich gezwungen ist, auto-
matisierte Funktionen wieder selbst zu übernehmen. Mangelndes Training und Ausübung
von Tätigkeiten kann zu Effektivitätseinbußen sowohl in motorischen als auch in kogni-
tiven Bereichen führen. Die „Out-of-the-loop“-Effekte treten besonders hinsichtlich der
Wahrnehmung und richtigen Interpretation der Systemprozesse – dem sogenannten Situa-
tionsbewusstsein – auf. Die Gründe für mangelndes Situationsbewusstsein liegen vornehm-
lich in der unzureichenden Überwachung des Systems, dem veränderten oder kompletten
Autonomes Fahren
Technische, rechtliche und gesellschaftliche Aspekte
Gefördert durch die Daimler und Benz Stiftung