elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Imprint | Privacy Policy | Contact | Deutsch
Fontsize: [-] Text [+]

Sichtfelderweiterung eines Laserscanners mittels einer Kamera für unbemannte Luftfahrzeuge

Krause, Stefan (2016) Sichtfelderweiterung eines Laserscanners mittels einer Kamera für unbemannte Luftfahrzeuge. Dissertation. DLR-Forschungsbericht. DLR-FB-FT-BS-2016-47, 206 S.

[img] PDF
15MB

Abstract

Nutzungskonzepte für kleine unbemannte Luftfahrzeuge beschreiben oftmals eine Verwendung in Bodennähe, nah an Objekten und innerhalb einer unbekannten Hinderniskulisse. Randbedingungen wie ein Betrieb außerhalb der Sicht des Operators und die Fortführung eines Einsatzes auch bei gestörter Kommunikation erfordern, dass die Luftfahrzeuge auch ohne direkte Anweisungen selbständig und sicher operieren können. Einsätze in einem unbekannten Gelände setzen zusätzlich die automatische Detektion von Hindernissen voraus, um Kollisionen zu verhindern. Für kleine unbemannte Luftfahrzeuge mit begrenzter Nutzlast stehen für die automatische Hindernisdetektion nur wenige Sensoren mit unterschiedlichen Nachteilen, wie begrenztem Auflösungsvermögen, Sichtfeld oder geringer Signifikanz der Daten, zur Verfügung. Aktuelle Sensoren können alle Anforderungen, welche vom Luftfahrzeug ausgehen oder an eine Umweltwahrnehmung gestellt werden, allein oft nicht erfüllen. Diese Arbeit präsentiert eine automatische Detektion von Hindernissen auf Basis einer Fusion monokularer Kamera- und monogoner Laserscannerdaten, welche eine Umgebungswahrnehmung bereitstellt, die gegenüber dem alleinigen Einsatz des Laserscanners erweitert ist und eine umfassendere Sicht auf die Umwelt ermöglicht. Darüber hinaus wird eine automatische Kalibrierung der beiden Sensoren zueinander sowie Verfahren für die Integration von kontinuierlichen Entfernungsmessungen in ein diskretes Weltmodell vorgestellt. Das Ergebnis dieses Vorgehen ist ein metrischen Weltmodell, welches den Raum, der das Luftfahrzeug umgibt, diskretisiert und pro Zelle beschreibt, ob der jeweilige Raum durch ein Hindernis belegt ist und somit nicht gequert werden kann. Voraussetzung für die Fusion ist eine Bestimmung der extrinsischen Parameter zwischen der monokularen Kamera und dem monogonen Laserscanner. In der Arbeit wird ein automatisches Verfahren vorgestellt, das neben den Entfernungs- auch die Intensitätsmessungen des Laserscanners verwendet, um Fehlmessungen des Laserscanners welche auf Kantentreffern basieren, zu detektieren. Als weitere Voraussetzung werden Lösungsansätze für die Integration von Entfernungsmessungen in ein diskretes Weltmodell vorgestellt, welche eine ungewollte Freizeichnung von Zellen verhindert, die als Folge einer Diskretisierung nur teilweise belegt sind. Diese Verfahren werden bezüglich ihrer Rechenperformanz verglichen und ein Ansatz mit der besten Eignung für den Betrieb auf einem kleinen unbemannten Luftfahrzeug ausgewählt. Die dargelegte Fusion ist zweistufig aufgebaut und nutzt eine kooperative Fusion, auf die eine konkurrierende Fusion folgt. Die kooperative Fusion der Sensordaten generiert dreidimensionale vereinfachte planare Approximationen der betrachteten Hindernisoberflächen, wobei deren Lage und Position auf Lasermessungen und die Abmessungen auf monokularen Kameradaten beruhen. Die Annahme einer planaren Oberflächenapproximation bildet die tatsächlichen Hindernisse nur sehr grob ab. Aus diesem Grund werden mehrere Approximationen, die zu unterschiedlichen Zeitpunkten und Blickwinkeln von den Hindernissen generiert wurden, in einem metrischen Weltmodell, einem OcTree, unter Verwendung eines probabilistischen Sensormodells konkurrierend fusioniert, um eine realistischere Repräsentation der Hindernisse zu erreichen. Der Fokus bei der Entwicklung lag auf kleinen unbemannten Luftfahrzeugen und den für diese Klasse von Vehikeln zur Verfügung stehenden Sensoren. Die umgesetzten Algorithmen sind für den Betrieb an Bord des Vehikels vorgesehen und im Hinblick auf die begrenzte Rechenleistung optimiert. Validiert wurden die Verfahren in Simulationen und mittels realer Testdaten, die mit einem unbemannten Helikopter als Sensorträger erstellt wurden. Die Ergebnisse zeigen eine erfolgreiche Erweiterung der Hinderniswahrnehmung, welche für das dargelegte Beispiel um 140% über die Sicht des Lasers hinausgeht. Der Ansatz ermöglicht damit einen Betrieb des unbemannten Vehikels in einer unbekannten Hinderniskulisse, der sicherer ist als bei alleiniger Nutzung eines Einzelsensors.

Item URL in elib:https://elib.dlr.de/106650/
Document Type:Monograph (DLR-Forschungsbericht, Dissertation)
Title:Sichtfelderweiterung eines Laserscanners mittels einer Kamera für unbemannte Luftfahrzeuge
Authors:
AuthorsInstitution or Email of AuthorsAuthors ORCID iD
Krause, Stefanstefan.krause (at) dlr.deUNSPECIFIED
Date:2016
Refereed publication:No
Open Access:Yes
Gold Open Access:No
In SCOPUS:No
In ISI Web of Science:No
Number of Pages:206
ISSN:1434-8454
Status:Published
Keywords:Laserscanner, Hindernisdetektion, LiDAR, Umweltwahrnehmung, Sichtfelderweiterung, Sensorfusion
Institution:Institut für Flugsystemtechnik
Department:Abteilung für Unbemannte Luftfahrzeuge
HGF - Research field:Aeronautics, Space and Transport
HGF - Program:Aeronautics
HGF - Program Themes:rotorcraft
DLR - Research area:Aeronautics
DLR - Program:L RR - Rotorcraft Research
DLR - Research theme (Project):L - The Smart Rotorcraft
Location: Braunschweig
Institutes and Institutions:Institute of Flight Systems
Deposited By: Krause, Stefan
Deposited On:19 Oct 2016 11:24
Last Modified:31 Jul 2019 20:04

Repository Staff Only: item control page

Browse
Search
Help & Contact
Information
electronic library is running on EPrints 3.3.12
Copyright © 2008-2017 German Aerospace Center (DLR). All rights reserved.