Lay, Florian Samuel (2020) Learning Semantic State Representations in Continuous Domains. DLR-Interner Bericht. DLR-IB-RM-OP-2020-117. Masterarbeit. Technische Universität München. 91 S.
PDF
- Nur DLR-intern zugänglich
20MB |
Kurzfassung
Universell einsetzbare Serviceroboter müssen in der Lage sein vielfältige Aufgaben zu erledigen. Mögliche Anwendungen reichen von der Unterstützung von Pflegepersonal in der Altenpflegebis hin zur Wartung von Solarmodulen auf dem Mars. Verglichen mit Industrierobotern, die hauptsächlich in strukturierter, überwachbarer Umgebung agieren, unterliegt die Umgebung von Servicerobotern kontinuierlichen Änderungen. Diese Änderungen können beispielsweise durch Menschen geschehen, die mit der Umgebung interagieren. Aufgrund der Komplexität dieser Umgebungen, in denen Serviceroboter agieren müssen, werden sie unter dem Paradigma der supervised Autonomy betrieben. Unter supervised Autonomy versteht man, dass menschliche Operatoren in der Lage sind abstrakte Aufgaben zu definieren und die Roboter daraufhin selbstständig Aktionsketten planen, mit denen das Ziel erreicht werden kann. Um solche komplexen Handlungsabläufe zu planen wird neben der geometrischen Planung auch die symbolische Planung eingesetzt. Auf der Grundlage von Aktionen, die sowohl eine symbolische als auch eine geometrische Beschreibung enthalten, können Roboter abschätzen, welche symbolischen Voraussetzungen für die Aktionen gegeben sein müssen und wie die Aktionen die symbolische Welt verändern. Dieses Wissen wird verwendet, um Aktionsketten zu planen, die das gewünschte Ziel erfüllen. Aufgrund der sich ständig ändernden Umgebungen kann sich die Welt während der Ausführung von Aktionssequenzen verändern. Allerdings sind Roboter noch nicht in der Lage diese Veränderungen der Welt während der Ausführung von Aktionssequenzen zu erkennen. Momentan ist es so, dass Serviceroboter eine fehlerfreie Ausführung annehmen, nachdem sie eine Aktionskette erfolgreich geplant haben. Dabei ist es egal, ob bei der Ausführung etwas schief geht. Um dieses Problem zu beheben, müssen Roboter in der Lage sein, Abweichungen vom erforderlichen symbolischen Zustand zu erkennen. Um diese Abweichungen in der realen Welt erkennen zu können müssen Roboter eine Repräsentation von Symbolen in Sensorinformationen kennen. Diese Arbeit beschäftigt sich mit den oben genannten Herausforderungen. Um Symbole mit Sensorinformationen zu verknüpfen, untersuchen wir erst die Bedeutung des Begriffs Symbol und betrachten die Erdung der Symbole in Sensorinformationen von verschiedenen Perspektiven. Wir verwenden maschinelles Lernen für die Verifizierung verschiedener Symbole mittels Sensorinformationen. Insbesondere betrachten wir Algorithmen zur Ausreißererkennung, da diese gute Eigenschaften haben um mit wenigen Trainingsdaten zurechtzukommen. Dieser Ansatz lässt sich als Top-Down-Verifikation von Symbolen beschreiben. Jedoch birgt dieser Ansatz Nachteile auf Grund der Interpretierbarkeit von Symbolen. Um diese Nachteile zu kompensieren, untersuchen wir wie symbolische Emergenz eingesetzt werden kann. Hierfür zeigen wir, wie mit Hilfe von multimodaler Latent Dirichlet Allocation latente Symbole unüberwacht gelernt werden können. Auf Basis des Top-Down Verifikation Ansatzes implementieren wir ein Verfahren zur Überwachung von Aktionssequenzen. Dieses Verfahren integrieren wir in die Roboterplattform Rollin Justin, einem am Deutschen Zentrum für Luft- und Raumfahrt entwickelten humanoiden Roboter. In diesem Prozess werden die trainierten Modelle des maschinellen Lernens mittels kleiner Python Codeschnipsel integriert, die Code für die Vorverarbeitung von Sensordaten und die Verifikation von Symbolen anhand der trainierten Modelle enthalten. Dieser Verifikationsprozess ebnet Robotern den Weg auf Änderungen in der Umgebung während der Ausführung von Aktionssequenzen zu reagieren.
elib-URL des Eintrags: | https://elib.dlr.de/136559/ | ||||||||
---|---|---|---|---|---|---|---|---|---|
Dokumentart: | Berichtsreihe (DLR-Interner Bericht, Masterarbeit) | ||||||||
Titel: | Learning Semantic State Representations in Continuous Domains | ||||||||
Autoren: |
| ||||||||
Datum: | 15 September 2020 | ||||||||
Referierte Publikation: | Nein | ||||||||
Open Access: | Nein | ||||||||
Seitenanzahl: | 91 | ||||||||
Status: | veröffentlicht | ||||||||
Stichwörter: | symbol grounding, symbolic emergence, action effect monitoring | ||||||||
Institution: | Technische Universität München | ||||||||
Abteilung: | Fakultät für Informatik | ||||||||
HGF - Forschungsbereich: | Luftfahrt, Raumfahrt und Verkehr | ||||||||
HGF - Programm: | Raumfahrt | ||||||||
HGF - Programmthema: | Technik für Raumfahrtsysteme | ||||||||
DLR - Schwerpunkt: | Raumfahrt | ||||||||
DLR - Forschungsgebiet: | R SY - Technik für Raumfahrtsysteme | ||||||||
DLR - Teilgebiet (Projekt, Vorhaben): | Vorhaben Autonome, lernende Roboter (alt) | ||||||||
Standort: | Oberpfaffenhofen | ||||||||
Institute & Einrichtungen: | Institut für Robotik und Mechatronik (ab 2013) > Kognitive Robotik | ||||||||
Hinterlegt von: | Lay, Florian Samuel | ||||||||
Hinterlegt am: | 23 Okt 2020 10:05 | ||||||||
Letzte Änderung: | 23 Okt 2020 10:05 |
Nur für Mitarbeiter des Archivs: Kontrollseite des Eintrags