Web-Books
in the Austria-Forum
Austria-Forum
Web-Books
Technik
Autonomes Fahren - Technische, rechtliche und gesellschaftliche Aspekte
Page - (000491) -
  • User
  • Version
    • full version
    • text only version
  • Language
    • Deutsch - German
    • English

Page - (000491) - in Autonomes Fahren - Technische, rechtliche und gesellschaftliche Aspekte

Image of the Page - (000491) -

Image of the Page - (000491) - in Autonomes Fahren - Technische,  rechtliche und gesellschaftliche Aspekte

Text of the Page - (000491) -

47322.4 Die Automation, die den lernenden Fahrer ersetzt 22.4.1 Sicherheitsrelevante Systeme Nach DIN 31000 gilt: Sicherheit ist eine Sachlage, bei der das Risiko nicht größer als das Grenzrisiko ist. [20] Inwieweit ein System im Automobil (oder auch generell) diese Sicherheit beeinflusst, kann folgendermaßen eingeteilt werden ([16] erweitert): 1. Sicherheitsunkritisch Fehler in diesem System führen zu keiner Gefährdung von Personen oder der Umwelt. Eine fehlerhafte Spracherkennung, die oft mit Verfahren des Maschinellen Lernens umgesetzt wird [21], ist beispielsweise sicherheitsunkritisch, wenn diese im Infotainment genutzt wird. Deshalb sind solche Systeme bereits im Einsatz, obwohl zum Teil regelmäßig Fehler auftreten, ohne dass die Sicherheit negativ beeinflusst wird. 2. Sicherheitsrelevant Ein System wird als sicherheitsrelevant bezeichnet, wenn durch Fehler dieses Systems eine Gefährdung von Personen oder der Umwelt eintreten kann. c. System zur Entscheidungsunterstützung Hier können die Vorschläge des Systems durch den Entscheider ausgeführt werden oder eben nicht. Ein Anästhesist bekommt beispielsweise einen Vorschlag für die Medikamentenvergabe, basierend auf Informationen über den Patienten, die Operation und vergangene Erfahrungswerte. Ein Fehler des Systems würde den Patienten gefähr- den, jedoch nur dann, wenn der Anästhesist dem Vorschlag folgt [22]. d. System zur Überwachung und Diagnose Ein Fehler des Systems führt zum Ausbleiben einer Warnung und kann, wenn der Fehler nicht anderweitig erkannt wird, zu einer Gefahr für Personen und Umwelt werden. Versagt das Diagnosesystem einer Industriemaschine beim Auftreten fehler- haften Verhaltens, so kann ein Ausfall dieser Diagnose zu einer Gefahr werden [23]. 3. Sicherheitskritisch Systeme, die bei einem Fehler direkt zu einer Gefährdung von Personen oder der Umwelt führen, werden als sicherheitskritisch bezeichnet. a. Automation überwacht/korrigierbar Wird eine Aktion ohne zusätzliche Bestätigung automatisiert ausgeführt, so führt der Fehler eines automatisierten Systems direkt zu einer Gefährdung von Personen und Umwelt. Wird das System zusätzlich durch einen Menschen überwacht und ist die Möglichkeit zur Korrektur gewährleistet, kann die Gefahr abgewandt werden. Der/die Überwacher/in bringt das System wieder unter Kontrolle, sodass Fehlertoleranz durch den Menschen hergestellt wird. Dabei ist zu beachten, dass besonders mit zunehmen- der Automatisierung der Prozesse und erweiterter Entlastung des Menschen dessen Fähigkeiten abnehmen, einen automatisierten Prozess zu überwachen [24]. Der so- genannte Stauassistent als Teilautomatisierung der Fahrzeugführung bildet ein solches
back to the  book Autonomes Fahren - Technische, rechtliche und gesellschaftliche Aspekte"
Autonomes Fahren Technische, rechtliche und gesellschaftliche Aspekte
Gefördert durch die Daimler und Benz Stiftung
Title
Autonomes Fahren
Subtitle
Technische, rechtliche und gesellschaftliche Aspekte
Authors
Markus Maurer
Christian Gerdes
Barbara Lenz
Hermann Winner
Publisher
Springer Open
Date
2015
Language
German
License
CC BY 4.0
ISBN
78-3-662-45854-9
Size
16.8 x 24.0 cm
Pages
756
Category
Technik
Web-Books
Library
Privacy
Imprint
Austria-Forum
Austria-Forum
Web-Books
Autonomes Fahren