elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Impressum | Datenschutz | Kontakt | English
Schriftgröße: [-] Text [+]

Augmented Autoencoders for Object Orientation Estimation trained on synthetic RGB Images

Sundermeyer, Martin (2017) Augmented Autoencoders for Object Orientation Estimation trained on synthetic RGB Images. DLR-Interner Bericht. DLR-IB-RM-OP-2017-165. Masterarbeit. Technische Universität München. 83 S.

[img] PDF
39MB

Kurzfassung

Fast and accurate object pose estimation algorithms are crucial for robotic tasks. Despite intensive research, most approaches are not generally applicable on arbitrary object characteristics and dynamic environment conditions. Learning-based methods like Convolutional Neural Networks (CNNs) have proven good generalization properties given sufficient training data. However, annotating RGB images with 3D object orientations is difficult and requires expert knowledge. In this work, a real-time approach for joint 2D object detection and 3D orientation estimation is proposed. First, a CNN-based object detector [45] is used to localize objects in an image plane. In the second step, an Autoencoder (AE) predicts the 3D orientation of the object from the resulting scene crop. The main contribution is a new training method for AEs that allows learning 3D object orientations from synthetic views of a 3D model, dispensing with the need to annotate orientations in real sensor data. The AE is trained to revert augmentations applied to the input and thus becomes robust against irrelevant color changes, background clutter and occlusions. It learns to produce low-dimensional representations of synthetic object orientations which can be compared to the representations of real RGB test data in a k-Nearest-Neighbor (kNN) search. Experiments on the pose annotated dataset T-LESS [23] prove the performance of the approach on different sensors. Finally, the training on synthetic data is shown to be almost on par with the training on real data.

elib-URL des Eintrags:https://elib.dlr.de/117228/
Dokumentart:Berichtsreihe (DLR-Interner Bericht, Masterarbeit)
Titel:Augmented Autoencoders for Object Orientation Estimation trained on synthetic RGB Images
Autoren:
AutorenInstitution oder E-Mail-AdresseAutoren-ORCID-iDORCID Put Code
Sundermeyer, Martinmartin.sundermeyer (at) dlr.dehttps://orcid.org/0000-0003-0587-9643NICHT SPEZIFIZIERT
Datum:2017
Referierte Publikation:Nein
Open Access:Ja
Seitenanzahl:83
Status:veröffentlicht
Stichwörter:Object Pose Estimation, Deep Learning, Synthetic Data, Autoencoder, Object Detection, Simulation to Reality Transfer, Augmentation
Institution:Technische Universität München
Abteilung:Electrical Engineering and Information Technology
HGF - Forschungsbereich:Luftfahrt, Raumfahrt und Verkehr
HGF - Programm:Raumfahrt
HGF - Programmthema:Technik für Raumfahrtsysteme
DLR - Schwerpunkt:Raumfahrt
DLR - Forschungsgebiet:R SY - Technik für Raumfahrtsysteme
DLR - Teilgebiet (Projekt, Vorhaben):R - Vorhaben Multisensorielle Weltmodellierung (alt)
Standort: Oberpfaffenhofen
Institute & Einrichtungen:Institut für Robotik und Mechatronik (ab 2013) > Perzeption und Kognition
Hinterlegt von: Sundermeyer, Martin
Hinterlegt am:19 Dez 2017 15:00
Letzte Änderung:18 Jul 2023 11:49

Nur für Mitarbeiter des Archivs: Kontrollseite des Eintrags

Blättern
Suchen
Hilfe & Kontakt
Informationen
electronic library verwendet EPrints 3.3.12
Gestaltung Webseite und Datenbank: Copyright © Deutsches Zentrum für Luft- und Raumfahrt (DLR). Alle Rechte vorbehalten.