elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Impressum | Datenschutz | Kontakt | English
Schriftgröße: [-] Text [+]

Enhancing Model-Based Step Adaptation for Push Recovery through Reinforcement Learning of Step Timing and Region

Egle, Tobias und Yan, Yashuai und Lee, Dongheui und Ott, Christian (2024) Enhancing Model-Based Step Adaptation for Push Recovery through Reinforcement Learning of Step Timing and Region. In: 23rd IEEE-RAS International Conference on Humanoid Robots, Humanoids 2024, Seiten 165-172. IEEE. 2024 IEEE-RAS International Conference on Humanoid Robots, 2024-11-22, Nancy, France. doi: 10.1109/Humanoids58906.2024.10769960. ISBN 979-835037357-8. ISSN 2164-0572.

Dieses Archiv kann nicht den Volltext zur Verfügung stellen.

Offizielle URL: https://ieeexplore.ieee.org/document/10769960

Kurzfassung

This paper introduces a new approach to enhance the robustness of humanoid walking under strong perturbations, such as substantial pushes. Effective recovery from external disturbances requires bipedal robots to dynamically adjust their stepping strategies, including footstep positions and timing. Unlike most advanced walking controllers that restrict footstep locations to a predefined convex region, substantially limiting recoverable disturbances, our method leverages reinforcement learning to dynamically adjust the permissible footstep region, expanding it to a larger, effectively non-convex area and allowing cross-over stepping, which is crucial for counteracting large lateral pushes. Additionally, our method adapts footstep timing in real time to further extend the range of recoverable disturbances. Based on these adjustments, feasible footstep positions and DCM trajectory are planned by solving a QP. Finally, we employ a DCM controller and an inverse dynamics whole-body control framework to ensure the robot effectively follows the trajectory.

elib-URL des Eintrags:https://elib.dlr.de/211799/
Dokumentart:Konferenzbeitrag (Vortrag)
Titel:Enhancing Model-Based Step Adaptation for Push Recovery through Reinforcement Learning of Step Timing and Region
Autoren:
AutorenInstitution oder E-Mail-AdresseAutoren-ORCID-iDORCID Put Code
Egle, TobiasEgle (at) acin.tuwien.ac.atNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Yan, YashuaiTU WienNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Lee, DongheuiDongheui.Lee (at) dlr.dehttps://orcid.org/0000-0003-1897-7664NICHT SPEZIFIZIERT
Ott, ChristianChristian.Ott (at) dlr.dehttps://orcid.org/0000-0003-0987-7493NICHT SPEZIFIZIERT
Datum:3 Dezember 2024
Erschienen in:23rd IEEE-RAS International Conference on Humanoid Robots, Humanoids 2024
Referierte Publikation:Ja
Open Access:Nein
Gold Open Access:Nein
In SCOPUS:Ja
In ISI Web of Science:Nein
DOI:10.1109/Humanoids58906.2024.10769960
Seitenbereich:Seiten 165-172
Verlag:IEEE
ISSN:2164-0572
ISBN:979-835037357-8
Status:veröffentlicht
Stichwörter:Reinforcement Learning
Veranstaltungstitel:2024 IEEE-RAS International Conference on Humanoid Robots
Veranstaltungsort:Nancy, France
Veranstaltungsart:internationale Konferenz
Veranstaltungsdatum:22 November 2024
Veranstalter :IEEE
HGF - Forschungsbereich:Luftfahrt, Raumfahrt und Verkehr
HGF - Programm:Raumfahrt
HGF - Programmthema:Robotik
DLR - Schwerpunkt:Raumfahrt
DLR - Forschungsgebiet:R RO - Robotik
DLR - Teilgebiet (Projekt, Vorhaben):R - Laufroboter/Lokomotion [RO]
Standort: Oberpfaffenhofen
Institute & Einrichtungen:Institut für Robotik und Mechatronik (ab 2013)
Hinterlegt von: Strobl, Dr.-Ing. Klaus H.
Hinterlegt am:14 Jan 2025 14:47
Letzte Änderung:24 Jan 2025 10:21

Nur für Mitarbeiter des Archivs: Kontrollseite des Eintrags

Blättern
Suchen
Hilfe & Kontakt
Informationen
electronic library verwendet EPrints 3.3.12
Gestaltung Webseite und Datenbank: Copyright © Deutsches Zentrum für Luft- und Raumfahrt (DLR). Alle Rechte vorbehalten.