Seite - (000438) - in Autonomes Fahren - Technische, rechtliche und gesellschaftliche Aspekte
Bild der Seite - (000438) -
Text der Seite - (000438) -
Prädiktion von maschineller Wahrnehmungsleistung beim automatisierten
Fahren422
20.2 Maschinelle Wahrnehmung
20.2.1 Umfang und Ausprägung
Die maschinelle Wahrnehmung hat, wie im vorherigen Abschnitt beschrieben, die Aufgabe,
alle für die Funktion des automatisierten Fahrens relevanten anderen Verkehrsteilnehmer
sicher zu erkennen und der Verkehrsinfrastruktur korrekt zuzuordnen. Dies ist insbesonde-
re deshalb notwendig, da beispielsweise für einen Fußgänger am Straßenrand ein anderes
Gefährdungspotenzial besteht, als wenn er einen parallel verlaufenden, abgetrennten Fuß-
gängerweg benutzt.
Zur maschinellen Wahrnehmung werden im Fahrzeugumfeld Sensoren verwendet, die
auf Kamera- sowie Radar- und/oder Lidartechnik basieren. Nähere Informationen zu
der Funktion und den Bauformen dieser Sensoren sind beispielsweise in [3] zu finden.
Kameras liefern ein 2-D-Abbild der 3-D-Szene in Form von hoch aufgelösten Grauwert-
oder Farbbildern, aus denen bei genügendem Kontrast oder Unterschieden in der Textur
einzelne Objekte mit Methoden der Bildverarbeitung extrahiert werden können. Eine Be-
stimmung der Objektentfernung ist mit Mono-Kameras allerdings nur mit oft zu Fehlern
führenden Annahmen wie einer ebenen Fahrbahn möglich. Stereo-Kameras erlauben zwar
über das Disparitätsbild auch eine Bestimmung der Objektentfernung, die Genauigkeit
sinkt jedoch quadratisch mit zunehmender Entfernung. Bei den heute üblichen Basisab-
ständen der Stereoanordnungen und Auflösung der Kameras sind Messreichweiten bis etwa
50 Meter möglich, ohne dass der Fehler so stark ansteigt, dass Funktionen hieraus keinen
Nutzen mehr ziehen könnten.
Radar-, aber auch Lidarsensoren liefern hingegen vergleichsweise sehr genaue und auch
hinsichtlich der Messfehler nahezu distanzunabhängige Entfernungsmessdaten. Sie können
aber aufgrund der geringeren Winkelauflösung die Konturen, d. h. die Außenabmessungen
von Objekten, schlechter erfassen. Dies gilt insbesondere für Radarsensoren. Zudem liefern
Radar- und Lidarsensoren keinerlei Texturinformationen. Aufgrund dieser unterschied-
lichen Messeigenschaften werden die unterschiedlichen Sensortypen für die Aufgabe der
maschinellen Wahrnehmung in der Regel kombiniert verwendet. Man spricht dann von
einer Sensordatenfusion.
Mit den fusionierten Sensordaten lassen sich bewegte und statische Objekte, aber bei-
spielsweise auch Fahrbahnmarkierungen grundsätzlich erkennen und physikalisch ver-
messen. Die möglichen Messdimensionen hängen vom spezifischen Sensor-Setup ab.
Typische erfassbare physikalische Messdaten sind die Abmessungen eines Objekts als
Quadermodell mit Länge, Breite und Höhe sowie seine Position absolut in der Welt oder
relativ zum eigenen Fahrzeug. Im Fall von bewegten Objekten kommen dann noch die
Objektgeschwindigkeiten und Objektbeschleunigungen als relativ einfach bestimmbare
Zustandsgrößen hinzu. Schwerer und in der Regel sehr unsicher bestimmbar aus externen
Sensormessungen ist die Gierrate beziehungsweise die Kursrate anderer Verkehrsteilneh-
mer. Diese Größen sind ohne Fahrzeug-zu-Fahrzeug-Kommunikation nur für das eigene
Fahrzeug zuverlässig ermittelbar.
Autonomes Fahren
Technische, rechtliche und gesellschaftliche Aspekte
Gefördert durch die Daimler und Benz Stiftung