Web-Books
im Austria-Forum
Austria-Forum
Web-Books
Technik
Autonomes Fahren - Technische, rechtliche und gesellschaftliche Aspekte
Seite - (000491) -
  • Benutzer
  • Version
    • Vollversion
    • Textversion
  • Sprache
    • Deutsch
    • English - Englisch

Seite - (000491) - in Autonomes Fahren - Technische, rechtliche und gesellschaftliche Aspekte

Bild der Seite - (000491) -

Bild der Seite - (000491) - in Autonomes Fahren - Technische,  rechtliche und gesellschaftliche Aspekte

Text der Seite - (000491) -

47322.4 Die Automation, die den lernenden Fahrer ersetzt 22.4.1 Sicherheitsrelevante Systeme Nach DIN 31000 gilt: Sicherheit ist eine Sachlage, bei der das Risiko nicht größer als das Grenzrisiko ist. [20] Inwieweit ein System im Automobil (oder auch generell) diese Sicherheit beeinflusst, kann folgendermaßen eingeteilt werden ([16] erweitert): 1. Sicherheitsunkritisch Fehler in diesem System führen zu keiner Gefährdung von Personen oder der Umwelt. Eine fehlerhafte Spracherkennung, die oft mit Verfahren des Maschinellen Lernens umgesetzt wird [21], ist beispielsweise sicherheitsunkritisch, wenn diese im Infotainment genutzt wird. Deshalb sind solche Systeme bereits im Einsatz, obwohl zum Teil regelmäßig Fehler auftreten, ohne dass die Sicherheit negativ beeinflusst wird. 2. Sicherheitsrelevant Ein System wird als sicherheitsrelevant bezeichnet, wenn durch Fehler dieses Systems eine Gefährdung von Personen oder der Umwelt eintreten kann. c. System zur Entscheidungsunterstützung Hier können die Vorschläge des Systems durch den Entscheider ausgeführt werden oder eben nicht. Ein Anästhesist bekommt beispielsweise einen Vorschlag für die Medikamentenvergabe, basierend auf Informationen über den Patienten, die Operation und vergangene Erfahrungswerte. Ein Fehler des Systems würde den Patienten gefähr- den, jedoch nur dann, wenn der Anästhesist dem Vorschlag folgt [22]. d. System zur Überwachung und Diagnose Ein Fehler des Systems führt zum Ausbleiben einer Warnung und kann, wenn der Fehler nicht anderweitig erkannt wird, zu einer Gefahr für Personen und Umwelt werden. Versagt das Diagnosesystem einer Industriemaschine beim Auftreten fehler- haften Verhaltens, so kann ein Ausfall dieser Diagnose zu einer Gefahr werden [23]. 3. Sicherheitskritisch Systeme, die bei einem Fehler direkt zu einer Gefährdung von Personen oder der Umwelt führen, werden als sicherheitskritisch bezeichnet. a. Automation überwacht/korrigierbar Wird eine Aktion ohne zusätzliche Bestätigung automatisiert ausgeführt, so führt der Fehler eines automatisierten Systems direkt zu einer Gefährdung von Personen und Umwelt. Wird das System zusätzlich durch einen Menschen überwacht und ist die Möglichkeit zur Korrektur gewährleistet, kann die Gefahr abgewandt werden. Der/die Überwacher/in bringt das System wieder unter Kontrolle, sodass Fehlertoleranz durch den Menschen hergestellt wird. Dabei ist zu beachten, dass besonders mit zunehmen- der Automatisierung der Prozesse und erweiterter Entlastung des Menschen dessen Fähigkeiten abnehmen, einen automatisierten Prozess zu überwachen [24]. Der so- genannte Stauassistent als Teilautomatisierung der Fahrzeugführung bildet ein solches
zurück zum  Buch Autonomes Fahren - Technische, rechtliche und gesellschaftliche Aspekte"
Autonomes Fahren Technische, rechtliche und gesellschaftliche Aspekte
Gefördert durch die Daimler und Benz Stiftung
Titel
Autonomes Fahren
Untertitel
Technische, rechtliche und gesellschaftliche Aspekte
Autoren
Markus Maurer
Christian Gerdes
Barbara Lenz
Hermann Winner
Verlag
Springer Open
Datum
2015
Sprache
deutsch
Lizenz
CC BY 4.0
ISBN
78-3-662-45854-9
Abmessungen
16.8 x 24.0 cm
Seiten
756
Kategorie
Technik
Web-Books
Bibliothek
Datenschutz
Impressum
Austria-Forum
Austria-Forum
Web-Books
Autonomes Fahren