elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Impressum | Datenschutz | Kontakt | English
Schriftgröße: [-] Text [+]

Depth-Based 3D Hand Pose Estimation: From Current Achievements to Future Goals

Yuan, Shanxin und Garcia-Hernando, Guillermo und Stenger, Bjoern und Moon, Gyeongsik und Chang, Ju Yong und Lee, Kyoung Mu und Molchanov, Pavlo und Kautz, Jan und Honari, Sina und Ge, Liuhao und Yuan, Jungsong und Chen, Xinghao und Wang, Guijin und Yang, Fan und Akiyama, Kai und Wu, Yang und Madadi, Meysam und Escalera, Sergio und Li, Shile und Lee, Dongheui und Oikonomidis, Iason und Argyros, Antonis und Kim, Tae-Kyun (2018) Depth-Based 3D Hand Pose Estimation: From Current Achievements to Future Goals. In: 31st Meeting of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2018, Seiten 2636-2645. IEEE. IEEE International Conference on Computer Vision and Pattern Recognition (CVPR), 2018-06-18 - 2018-06-22, Salt-Lake City. doi: 10.1109/CVPR.2018.00279. ISBN 978-153866420-9. ISSN 1063-6919.

Dieses Archiv kann nicht den Volltext zur Verfügung stellen.

Offizielle URL: https://openaccess.thecvf.com/content_cvpr_2018/html/Yuan_Depth-Based_3D_Hand_CVPR_2018_paper.html

Kurzfassung

In this paper, we strive to answer two questions: What is the current state of 3D hand pose estimation from depth images? And, what are the next challenges that need to be tackled? Following the successful Hands In the Million Challenge (HIM2017), we investigate the top 10 state-of-the-art methods on three tasks: single frame 3D pose estimation, 3D hand tracking, and hand pose estimation during object interaction. We analyze the performance of different CNN structures with regard to hand shape, joint visibility, view point and articulation distributions. Our findings include: (1) isolated 3D hand pose estimation achieves low mean errors (10 mm) in the view point range of [70, 120] degrees, but it is far from being solved for extreme view points; (2) 3D volumetric representations outperform 2D CNNs, better capturing the spatial structure of the depth data; (3) Discriminative methods still generalize poorly to unseen hand shapes; (4) While joint occlusions pose a challenge for most methods, explicit modeling of structure constraints can significantly narrow the gap between errors on visible and occluded joints.

elib-URL des Eintrags:https://elib.dlr.de/124905/
Dokumentart:Konferenzbeitrag (Vortrag)
Titel:Depth-Based 3D Hand Pose Estimation: From Current Achievements to Future Goals
Autoren:
AutorenInstitution oder E-Mail-AdresseAutoren-ORCID-iDORCID Put Code
Yuan, ShanxinNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Garcia-Hernando, GuillermoNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Stenger, BjoernNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Moon, GyeongsikNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Chang, Ju YongNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Lee, Kyoung MuNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Molchanov, PavloNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Kautz, JanNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Honari, SinaNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Ge, LiuhaoNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Yuan, JungsongNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Chen, XinghaoNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Wang, GuijinNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Yang, FanNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Akiyama, KaiNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Wu, YangNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Madadi, MeysamNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Escalera, SergioNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Li, ShileTUMNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Lee, DongheuiDongheui.Lee (at) dlr.dehttps://orcid.org/0000-0003-1897-7664NICHT SPEZIFIZIERT
Oikonomidis, IasonNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Argyros, AntonisNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Kim, Tae-KyunNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Datum:2018
Erschienen in:31st Meeting of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2018
Referierte Publikation:Ja
Open Access:Nein
Gold Open Access:Nein
In SCOPUS:Ja
In ISI Web of Science:Ja
DOI:10.1109/CVPR.2018.00279
Seitenbereich:Seiten 2636-2645
Verlag:IEEE
ISSN:1063-6919
ISBN:978-153866420-9
Status:veröffentlicht
Stichwörter:Hand Pose Estimation, Challenges
Veranstaltungstitel:IEEE International Conference on Computer Vision and Pattern Recognition (CVPR)
Veranstaltungsort:Salt-Lake City
Veranstaltungsart:internationale Konferenz
Veranstaltungsbeginn:18 Juni 2018
Veranstaltungsende:22 Juni 2018
HGF - Forschungsbereich:Luftfahrt, Raumfahrt und Verkehr
HGF - Programm:Raumfahrt
HGF - Programmthema:Technik für Raumfahrtsysteme
DLR - Schwerpunkt:Raumfahrt
DLR - Forschungsgebiet:R SY - Technik für Raumfahrtsysteme
DLR - Teilgebiet (Projekt, Vorhaben):R - Terrestrische Assistenz-Robotik (alt)
Standort: Oberpfaffenhofen
Institute & Einrichtungen:Institut für Robotik und Mechatronik (ab 2013)
Hinterlegt von: Ott, Dr. Christian
Hinterlegt am:12 Dez 2018 08:06
Letzte Änderung:04 Jun 2024 15:06

Nur für Mitarbeiter des Archivs: Kontrollseite des Eintrags

Blättern
Suchen
Hilfe & Kontakt
Informationen
electronic library verwendet EPrints 3.3.12
Gestaltung Webseite und Datenbank: Copyright © Deutsches Zentrum für Luft- und Raumfahrt (DLR). Alle Rechte vorbehalten.