Verfahren für eine verbesserte Objekterfassung
Die Erfindung betrifft ein Verfahren für eine verbesserte Objekterfassung auf Basis von zwei Arten um Umgebungssensoren (14, 16), das in einem Fahrunterstützungssystem (12) eines Fahrzeugs (10) angewendet wird, wobei die erste Art von Umgebungssensor ein für Bilder ausgelegter Sensor (14) ist, der e...
Gespeichert in:
Hauptverfasser: | , |
---|---|
Format: | Patent |
Sprache: | ger |
Schlagworte: | |
Online-Zugang: | Volltext bestellen |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | Die Erfindung betrifft ein Verfahren für eine verbesserte Objekterfassung auf Basis von zwei Arten um Umgebungssensoren (14, 16), das in einem Fahrunterstützungssystem (12) eines Fahrzeugs (10) angewendet wird, wobei die erste Art von Umgebungssensor ein für Bilder ausgelegter Sensor (14) ist, der ein Bildersichtfeld (18) aufweist, und die zweite Art von Umgebungssensor ein für Entfernungen ausgelegter Sensor (16) ist, der ein Entfernungssichtfeld (20) aufweist, welches das Bildersichtfeld (18) zumindest zum Teil überschneidet, die folgenden Schritte umfassend: Bereitstellen einer 2-dimensionalen Anordnung von Datenpunkten (26), welche die Umgebung des Fahrzeugs (10) im Bildersichtfeld (18) darstellen, durch mindestens einen für Bilder ausgelegten Sensor (14), Identifizieren eines oder mehrerer Objekte (30) in der 2-dimensionalen Anordnung von Datenpunkten (26), Bereitstellen einer 3-dimensionalen Anordnung von Datenpunkten (28), welche die Umgebung des Fahrzeugs (10) im Entfernungssichtfeld (20) darstellen, durch mindestens einen für Entfernungen ausgelegten Sensor (16), Abbilden der 3-dimensionalen Anordnung von Datenpunkten (28) auf die 2-dimensionale Anordnung von Datenpunkten (26), Auswählen eines oder mehrerer 3D-Untersätze von Datenpunkten (36) in der 3-dimensionalen Anordnung von Datenpunkten (28), die dem einen oder den mehreren identifizierten Objekten (30) in der 2-dimensionalen Anordnung von Datenpunkten (26) entsprechen, Erfassen der Position, der Größe und/oder der Ausrichtung des einen oder der mehreren identifizierten Objekte (30) unter Berücksichtigung des einen oder der mehreren ausgewählten 3D-Untersätze (36) von Datenpunkten. |
---|