elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Impressum | Datenschutz | Kontakt | English
Schriftgröße: [-] Text [+]

RATE: Real-time Asynchronous Feature Tracking with Event Cameras

Ikura, Mikihiro und Le Gentil, Cedric und Müller, Marcus Gerhard und Schuler, Florian und Yamashita, Atsushi und Stürzl, Wolfgang (2024) RATE: Real-time Asynchronous Feature Tracking with Event Cameras. In: 2024 IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS 2024. IEEE. 2024 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2024), 2024-10-14 - 2024-10-18, Abu Dhabi, UAE. ISSN 2153-0858.

[img] PDF - Nur DLR-intern zugänglich
1MB

Kurzfassung

Vision-based self-localization is a crucial technology for enabling autonomous robot navigation in GPS-deprived environments. However, standard frame cameras are subject to motion blur and suffer from a limited dynamic range. This research focuses on efficient feature tracking for self-localization by using event-based cameras. Such cameras do not provide regular snapshots of the environment but asynchronously collect events that correspond to a small delta of illumination in each pixel independently, thus addressing the issue of motion blur during fast motion and high dynamic range. Specifically, we propose a continuous real-time asynchronous event-based feature tracking pipeline, named RATE. This pipeline integrates (i) a corner detector node utilizing a time slice of the Surface of Active Events to initialize trackers continuously, along with (ii) a tracker node with a proposed "tracking manager", consisting of a grid-based distributor to reduce redundant trackers and to remove feature tracks of poor quality. Evaluations using public datasets reveal that our method maintains a stable number of tracked features, and performs real-time tracking efficiently while maintaining or even improving tracking accuracy compared to state-of-the-art event-only tracking methods.

elib-URL des Eintrags:https://elib.dlr.de/210500/
Dokumentart:Konferenzbeitrag (Poster)
Titel:RATE: Real-time Asynchronous Feature Tracking with Event Cameras
Autoren:
AutorenInstitution oder E-Mail-AdresseAutoren-ORCID-iDORCID Put Code
Ikura, Mikihiroikura (at) robot.t.u-tokyo.ac.jpNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Le Gentil, Cedriccedric.legentil (at) uts.edu.auhttps://orcid.org/0000-0002-9790-5935NICHT SPEZIFIZIERT
Müller, Marcus GerhardMarcus.Mueller (at) dlr.dehttps://orcid.org/0000-0003-4283-6693NICHT SPEZIFIZIERT
Schuler, FlorianFlorian.Schuler (at) dlr.deNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Yamashita, Atsushiyamashita (at) robot.t.u-tokyo.ac.jpNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Stürzl, WolfgangWolfgang.Stuerzl (at) dlr.dehttps://orcid.org/0000-0003-2440-5857NICHT SPEZIFIZIERT
Datum:2024
Erschienen in:2024 IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS 2024
Referierte Publikation:Ja
Open Access:Nein
Gold Open Access:Nein
In SCOPUS:Nein
In ISI Web of Science:Nein
Verlag:IEEE
ISSN:2153-0858
Status:veröffentlicht
Stichwörter:event camera, feature tracking, real time
Veranstaltungstitel:2024 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2024)
Veranstaltungsort:Abu Dhabi, UAE
Veranstaltungsart:internationale Konferenz
Veranstaltungsbeginn:14 Oktober 2024
Veranstaltungsende:18 Oktober 2024
HGF - Forschungsbereich:Luftfahrt, Raumfahrt und Verkehr
HGF - Programm:Raumfahrt
HGF - Programmthema:Robotik
DLR - Schwerpunkt:Raumfahrt
DLR - Forschungsgebiet:R RO - Robotik
DLR - Teilgebiet (Projekt, Vorhaben):R - Multisensorielle Weltmodellierung (RM) [RO]
Standort: Oberpfaffenhofen
Institute & Einrichtungen:Institut für Robotik und Mechatronik (ab 2013) > Perzeption und Kognition
Hinterlegt von: Stürzl, Wolfgang
Hinterlegt am:10 Dez 2024 20:18
Letzte Änderung:10 Dez 2024 20:18

Nur für Mitarbeiter des Archivs: Kontrollseite des Eintrags

Blättern
Suchen
Hilfe & Kontakt
Informationen
electronic library verwendet EPrints 3.3.12
Gestaltung Webseite und Datenbank: Copyright © Deutsches Zentrum für Luft- und Raumfahrt (DLR). Alle Rechte vorbehalten.