elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Impressum | Datenschutz | Kontakt | English
Schriftgröße: [-] Text [+]

Non-Local Graph Convolutional Networks for Hyperspectral Image Classification

Mou, LiChao und Lu, Xiaoqiang und Li, Xuelong und Zhu, Xiao Xiang (2020) Non-Local Graph Convolutional Networks for Hyperspectral Image Classification. IEEE Transactions on Geoscience and Remote Sensing, 58 (12), Seiten 8246-8257. IEEE - Institute of Electrical and Electronics Engineers. doi: 10.1109/TGRS.2020.2973363. ISSN 0196-2892.

[img] PDF - Verlagsversion (veröffentlichte Fassung)
10MB

Offizielle URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=9091940

Kurzfassung

Over the past few years making use of deep networks, including convolutional neural networks (CNNs) and recurrent neural networks (RNNs), classifying hyperspectral images has progressed significantly and gained increasing attention. In spite of being successful, these networks need an adequate supply of labeled training instances for supervised learning, which, however, is quite costly to collect. On the other hand, unlabeled data can be accessed in almost arbitrary amounts. Hence it would be conceptually of great interest to explore networks that are able to exploit labeled and unlabeled data simultaneously for hyperspectral image classification. In this article, we propose a novel graph-based semisupervised network called nonlocal graph convolutional network (nonlocal GCN). Unlike existing CNNs and RNNs that receive pixels or patches of a hyperspectral image as inputs, this network takes the whole image (including both labeled and unlabeled data) in. More specifically, a nonlocal graph is first calculated. Given this graph representation, a couple of graph convolutional layers are used to extract features. Finally, the semisupervised learning of the network is done by using a cross-entropy error over all labeled instances. Note that the nonlocal GCN is end-to-end trainable. We demonstrate in extensive experiments that compared with state-of-the-art spectral classifiers and spectral–spatial classification networks, the nonlocal GCN is able to offer competitive results and high-quality classification maps (with fine boundaries and without noisy scattered points of misclassification).

elib-URL des Eintrags:https://elib.dlr.de/140904/
Dokumentart:Zeitschriftenbeitrag
Titel:Non-Local Graph Convolutional Networks for Hyperspectral Image Classification
Autoren:
AutorenInstitution oder E-Mail-AdresseAutoren-ORCID-iDORCID Put Code
Mou, LiChaoLiChao.Mou (at) dlr.deNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Lu, XiaoqiangNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Li, XuelongNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Zhu, Xiao Xiangxiao.zhu (at) dlr.deNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Datum:Dezember 2020
Erschienen in:IEEE Transactions on Geoscience and Remote Sensing
Referierte Publikation:Ja
Open Access:Ja
Gold Open Access:Nein
In SCOPUS:Ja
In ISI Web of Science:Ja
Band:58
DOI:10.1109/TGRS.2020.2973363
Seitenbereich:Seiten 8246-8257
Verlag:IEEE - Institute of Electrical and Electronics Engineers
ISSN:0196-2892
Status:veröffentlicht
Stichwörter:Graph convolutional network (GCN), hyperspectral image classification, nonlocal graph, semisupervised, learning
HGF - Forschungsbereich:Luftfahrt, Raumfahrt und Verkehr
HGF - Programm:Raumfahrt
HGF - Programmthema:Erdbeobachtung
DLR - Schwerpunkt:Raumfahrt
DLR - Forschungsgebiet:R EO - Erdbeobachtung
DLR - Teilgebiet (Projekt, Vorhaben):R - Fernerkundung u. Geoforschung, R - Vorhaben hochauflösende Fernerkundungsverfahren (alt)
Standort: Oberpfaffenhofen
Institute & Einrichtungen:Institut für Methodik der Fernerkundung > EO Data Science
Hinterlegt von: Bratasanu, Ion-Dragos
Hinterlegt am:12 Feb 2021 15:53
Letzte Änderung:24 Okt 2023 12:57

Nur für Mitarbeiter des Archivs: Kontrollseite des Eintrags

Blättern
Suchen
Hilfe & Kontakt
Informationen
electronic library verwendet EPrints 3.3.12
Gestaltung Webseite und Datenbank: Copyright © Deutsches Zentrum für Luft- und Raumfahrt (DLR). Alle Rechte vorbehalten.