elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Imprint | Privacy Policy | Contact | Deutsch
Fontsize: [-] Text [+]

Learning Semantic State Representations in Continuous Domains

Lay, Florian Samuel (2020) Learning Semantic State Representations in Continuous Domains. Master's. DLR-Interner Bericht. DLR-IB-RM-OP-2020-117, 91 S.

[img] PDF - Registered users only
20MB

Abstract

Universell einsetzbare Serviceroboter müssen in der Lage sein vielfältige Aufgaben zu erledigen. Mögliche Anwendungen reichen von der Unterstützung von Pflegepersonal in der Altenpflegebis hin zur Wartung von Solarmodulen auf dem Mars. Verglichen mit Industrierobotern, die hauptsächlich in strukturierter, überwachbarer Umgebung agieren, unterliegt die Umgebung von Servicerobotern kontinuierlichen Änderungen. Diese Änderungen können beispielsweise durch Menschen geschehen, die mit der Umgebung interagieren. Aufgrund der Komplexität dieser Umgebungen, in denen Serviceroboter agieren müssen, werden sie unter dem Paradigma der supervised Autonomy betrieben. Unter supervised Autonomy versteht man, dass menschliche Operatoren in der Lage sind abstrakte Aufgaben zu definieren und die Roboter daraufhin selbstständig Aktionsketten planen, mit denen das Ziel erreicht werden kann. Um solche komplexen Handlungsabläufe zu planen wird neben der geometrischen Planung auch die symbolische Planung eingesetzt. Auf der Grundlage von Aktionen, die sowohl eine symbolische als auch eine geometrische Beschreibung enthalten, können Roboter abschätzen, welche symbolischen Voraussetzungen für die Aktionen gegeben sein müssen und wie die Aktionen die symbolische Welt verändern. Dieses Wissen wird verwendet, um Aktionsketten zu planen, die das gewünschte Ziel erfüllen. Aufgrund der sich ständig ändernden Umgebungen kann sich die Welt während der Ausführung von Aktionssequenzen verändern. Allerdings sind Roboter noch nicht in der Lage diese Veränderungen der Welt während der Ausführung von Aktionssequenzen zu erkennen. Momentan ist es so, dass Serviceroboter eine fehlerfreie Ausführung annehmen, nachdem sie eine Aktionskette erfolgreich geplant haben. Dabei ist es egal, ob bei der Ausführung etwas schief geht. Um dieses Problem zu beheben, müssen Roboter in der Lage sein, Abweichungen vom erforderlichen symbolischen Zustand zu erkennen. Um diese Abweichungen in der realen Welt erkennen zu können müssen Roboter eine Repräsentation von Symbolen in Sensorinformationen kennen. Diese Arbeit beschäftigt sich mit den oben genannten Herausforderungen. Um Symbole mit Sensorinformationen zu verknüpfen, untersuchen wir erst die Bedeutung des Begriffs Symbol und betrachten die Erdung der Symbole in Sensorinformationen von verschiedenen Perspektiven. Wir verwenden maschinelles Lernen für die Verifizierung verschiedener Symbole mittels Sensorinformationen. Insbesondere betrachten wir Algorithmen zur Ausreißererkennung, da diese gute Eigenschaften haben um mit wenigen Trainingsdaten zurechtzukommen. Dieser Ansatz lässt sich als Top-Down-Verifikation von Symbolen beschreiben. Jedoch birgt dieser Ansatz Nachteile auf Grund der Interpretierbarkeit von Symbolen. Um diese Nachteile zu kompensieren, untersuchen wir wie symbolische Emergenz eingesetzt werden kann. Hierfür zeigen wir, wie mit Hilfe von multimodaler Latent Dirichlet Allocation latente Symbole unüberwacht gelernt werden können. Auf Basis des Top-Down Verifikation Ansatzes implementieren wir ein Verfahren zur Überwachung von Aktionssequenzen. Dieses Verfahren integrieren wir in die Roboterplattform Rollin Justin, einem am Deutschen Zentrum für Luft- und Raumfahrt entwickelten humanoiden Roboter. In diesem Prozess werden die trainierten Modelle des maschinellen Lernens mittels kleiner Python Codeschnipsel integriert, die Code für die Vorverarbeitung von Sensordaten und die Verifikation von Symbolen anhand der trainierten Modelle enthalten. Dieser Verifikationsprozess ebnet Robotern den Weg auf Änderungen in der Umgebung während der Ausführung von Aktionssequenzen zu reagieren.

Item URL in elib:https://elib.dlr.de/136559/
Document Type:Monograph (DLR-Interner Bericht, Master's)
Title:Learning Semantic State Representations in Continuous Domains
Authors:
AuthorsInstitution or Email of AuthorsAuthor's ORCID iD
Lay, Florian SamuelFlorian.Lay (at) dlr.dehttps://orcid.org/0000-0002-5706-3278
Date:15 September 2020
Refereed publication:No
Open Access:No
Gold Open Access:No
In SCOPUS:No
In ISI Web of Science:No
Number of Pages:91
Status:Published
Keywords:symbol grounding, symbolic emergence, action effect monitoring
Institution:Technische Universität München
Department:Fakultät für Informatik
HGF - Research field:Aeronautics, Space and Transport
HGF - Program:Space
HGF - Program Themes:Space Technology
DLR - Research area:Raumfahrt
DLR - Program:R SY - Technik für Raumfahrtsysteme
DLR - Research theme (Project):Vorhaben Autonome, lernende Roboter
Location: Oberpfaffenhofen
Institutes and Institutions:Institute of Robotics and Mechatronics (since 2013) > Cognitive Robotics
Deposited By: Lay, Florian Samuel
Deposited On:23 Oct 2020 10:05
Last Modified:23 Oct 2020 10:05

Repository Staff Only: item control page

Browse
Search
Help & Contact
Information
electronic library is running on EPrints 3.3.12
Copyright © 2008-2017 German Aerospace Center (DLR). All rights reserved.