Page - (000438) - in Autonomes Fahren - Technische, rechtliche und gesellschaftliche Aspekte
Image of the Page - (000438) -
Text of the Page - (000438) -
PrÀdiktion von maschineller Wahrnehmungsleistung beim automatisierten
Fahren422
20.2 Maschinelle Wahrnehmung
20.2.1 Umfang und AusprÀgung
Die maschinelle Wahrnehmung hat, wie im vorherigen Abschnitt beschrieben, die Aufgabe,
alle fĂŒr die Funktion des automatisierten Fahrens relevanten anderen Verkehrsteilnehmer
sicher zu erkennen und der Verkehrsinfrastruktur korrekt zuzuordnen. Dies ist insbesonde-
re deshalb notwendig, da beispielsweise fĂŒr einen FuĂgĂ€nger am StraĂenrand ein anderes
GefĂ€hrdungspotenzial besteht, als wenn er einen parallel verlaufenden, abgetrennten FuĂ-
gÀngerweg benutzt.
Zur maschinellen Wahrnehmung werden im Fahrzeugumfeld Sensoren verwendet, die
auf Kamera- sowie Radar- und/oder Lidartechnik basieren. NĂ€here Informationen zu
der Funktion und den Bauformen dieser Sensoren sind beispielsweise in [3] zu finden.
Kameras liefern ein 2-D-Abbild der 3-D-Szene in Form von hoch aufgelösten Grauwert-
oder Farbbildern, aus denen bei genĂŒgendem Kontrast oder Unterschieden in der Textur
einzelne Objekte mit Methoden der Bildverarbeitung extrahiert werden können. Eine Be-
stimmung der Objektentfernung ist mit Mono-Kameras allerdings nur mit oft zu Fehlern
fĂŒhrenden Annahmen wie einer ebenen Fahrbahn möglich. Stereo-Kameras erlauben zwar
ĂŒber das DisparitĂ€tsbild auch eine Bestimmung der Objektentfernung, die Genauigkeit
sinkt jedoch quadratisch mit zunehmender Entfernung. Bei den heute ĂŒblichen Basisab-
stÀnden der Stereoanordnungen und Auflösung der Kameras sind Messreichweiten bis etwa
50 Meter möglich, ohne dass der Fehler so stark ansteigt, dass Funktionen hieraus keinen
Nutzen mehr ziehen könnten.
Radar-, aber auch Lidarsensoren liefern hingegen vergleichsweise sehr genaue und auch
hinsichtlich der Messfehler nahezu distanzunabhÀngige Entfernungsmessdaten. Sie können
aber aufgrund der geringeren Winkelauflösung die Konturen, d. h. die AuĂenabmessungen
von Objekten, schlechter erfassen. Dies gilt insbesondere fĂŒr Radarsensoren. Zudem liefern
Radar- und Lidarsensoren keinerlei Texturinformationen. Aufgrund dieser unterschied-
lichen Messeigenschaften werden die unterschiedlichen Sensortypen fĂŒr die Aufgabe der
maschinellen Wahrnehmung in der Regel kombiniert verwendet. Man spricht dann von
einer Sensordatenfusion.
Mit den fusionierten Sensordaten lassen sich bewegte und statische Objekte, aber bei-
spielsweise auch Fahrbahnmarkierungen grundsÀtzlich erkennen und physikalisch ver-
messen. Die möglichen Messdimensionen hÀngen vom spezifischen Sensor-Setup ab.
Typische erfassbare physikalische Messdaten sind die Abmessungen eines Objekts als
Quadermodell mit LÀnge, Breite und Höhe sowie seine Position absolut in der Welt oder
relativ zum eigenen Fahrzeug. Im Fall von bewegten Objekten kommen dann noch die
Objektgeschwindigkeiten und Objektbeschleunigungen als relativ einfach bestimmbare
ZustandsgröĂen hinzu. Schwerer und in der Regel sehr unsicher bestimmbar aus externen
Sensormessungen ist die Gierrate beziehungsweise die Kursrate anderer Verkehrsteilneh-
mer. Diese GröĂen sind ohne Fahrzeug-zu-Fahrzeug-Kommunikation nur fĂŒr das eigene
Fahrzeug zuverlÀssig ermittelbar.
Autonomes Fahren
Technische, rechtliche und gesellschaftliche Aspekte
Gefördert durch die Daimler und Benz Stiftung