SELF-SUPERVISED MULTI-FRAME DEPTH ESTIMATION WITH ODOMETRY FUSION
An example device for processing image data includes a processing unit configured to: receive, from a camera of a vehicle, a first image frame at a first time and a second image frame at a second time; receive, from an odometry unit of the vehicle, a first position of the vehicle at the first time a...
Gespeichert in:
Hauptverfasser: | , , , |
---|---|
Format: | Patent |
Sprache: | eng ; fre |
Schlagworte: | |
Online-Zugang: | Volltext bestellen |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | An example device for processing image data includes a processing unit configured to: receive, from a camera of a vehicle, a first image frame at a first time and a second image frame at a second time; receive, from an odometry unit of the vehicle, a first position of the vehicle at the first time and a second position of the vehicle at a second time; calculate a pose difference value representing a difference between the second and first positions; form a pose frame having a size corresponding to the first and second image frames and sample values including the pose difference value; and provide the first and second image frames and the pose frame to a neural networking unit configured to calculate depth for objects in the first image frame and the second image frame, the depth for the objects representing distances between the objects and the vehicle.
Un dispositif donné à titre d'exemple permettant de traiter des données d'image comporte une unité de traitement configurée pour : recevoir, en provenance d'une caméra d'un véhicule, une première trame d'image à un premier instant et une seconde trame d'image à un second instant ; recevoir, en provenance d'une unité d'odométrie du véhicule, une première position du véhicule au premier instant et une seconde position du véhicule à un second instant ; calculer une valeur de différence de pose représentant une différence entre les seconde et première positions ; former une trame de pose ayant une taille correspondant aux première et seconde trames d'image et des valeurs d'échantillon comportant la valeur de différence de pose ; et fournir les première et seconde trames d'image et la trame de pose à une unité de mise en réseau de neurones artificiels configurée pour calculer une profondeur pour des objets dans la première trame d'image et la seconde trame d'image, la profondeur pour les objets représentant des distances entre les objets et le véhicule. |
---|