elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Impressum | Datenschutz | Barrierefreiheit | Kontakt | English
Schriftgröße: [-] Text [+]

SpectralEarth: Training Hyperspectral Foundation Models at Scale

Ait Ali Braham, Nassim und Albrecht, Conrad M und Mairal, Julien und Chanussot, Jocelyn und Wang, Yi und Zhu, Xiao Xiang (2025) SpectralEarth: Training Hyperspectral Foundation Models at Scale. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. IEEE - Institute of Electrical and Electronics Engineers. doi: 10.1109/JSTARS.2025.3581451. ISSN 1939-1404.

[img] PDF - Preprintversion (eingereichte Entwurfsversion)
20MB

Kurzfassung

Foundation models have triggered a paradigm shift in computer vision and are increasingly being adopted in remote sensing, particularly for multispectral imagery. Yet, their potential in hyperspectral imaging (HSI) remains untapped due to the absence of comprehensive and globally representative hyperspectral datasets. To close this gap, we introduce SpectralEarth, a large-scale multi-temporal dataset designed to pretrain hyperspectral foundation models leveraging data from the Environmental Mapping and Analysis Program (EnMAP). SpectralEarth comprises 538,974 image patches covering 415,153 unique locations from 11,636 globally distributed EnMAP scenes spanning two years of archive. Additionally, 17.5% of these locations include multiple timestamps, enabling multi-temporal HSI analysis. Utilizing state-of-the-art self-supervised learning (SSL) algorithms, we pretrain a series of foundation models on SpectralEarth, integrating a spectral adapter into classical vision backbones to accommodate the unique characteristics of HSI. In tandem, we construct nine downstream datasets for land-cover, crop-type mapping, and tree-species classification, providing benchmarks for model evaluation. Experimental results support the versatility of our models and their generalizability across different tasks and sensors. We also highlight computational efficiency during model fine-tuning. The dataset, pretrained models, and code are publicly available.

elib-URL des Eintrags:https://elib.dlr.de/214763/
Dokumentart:Zeitschriftenbeitrag
Titel:SpectralEarth: Training Hyperspectral Foundation Models at Scale
Autoren:
AutorenInstitution oder E-Mail-AdresseAutoren-ORCID-iDORCID Put Code
Ait Ali Braham, NassimNassim.AitAliBraham (at) dlr.dehttps://orcid.org/0009-0001-3346-3373187579760
Albrecht, Conrad MConrad.Albrecht (at) dlr.dehttps://orcid.org/0009-0009-2422-7289NICHT SPEZIFIZIERT
Mairal, JulienInstitute Nationale Polytechnique de GrenobleNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Chanussot, JocelynGrenoble Institute of Technologyhttps://orcid.org/0000-0003-4817-2875NICHT SPEZIFIZIERT
Wang, YiYi4.Wang (at) tum.deNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Zhu, Xiao XiangTUMNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Datum:2025
Erschienen in:IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing
Referierte Publikation:Nein
Open Access:Ja
Gold Open Access:Ja
In SCOPUS:Ja
In ISI Web of Science:Ja
DOI:10.1109/JSTARS.2025.3581451
Verlag:IEEE - Institute of Electrical and Electronics Engineers
ISSN:1939-1404
Status:veröffentlicht
Stichwörter:EnMAP, hyperspectral, foundation model, self-supervised learning
HGF - Forschungsbereich:Luftfahrt, Raumfahrt und Verkehr
HGF - Programm:Raumfahrt
HGF - Programmthema:Erdbeobachtung
DLR - Schwerpunkt:Raumfahrt
DLR - Forschungsgebiet:R EO - Erdbeobachtung
DLR - Teilgebiet (Projekt, Vorhaben):R - Künstliche Intelligenz, R - Optische Fernerkundung
Standort: Oberpfaffenhofen
Institute & Einrichtungen:Institut für Methodik der Fernerkundung > EO Data Science
Hinterlegt von: Albrecht, Conrad M
Hinterlegt am:09 Jul 2025 11:35
Letzte Änderung:12 Aug 2025 17:01

Nur für Mitarbeiter des Archivs: Kontrollseite des Eintrags

Blättern
Suchen
Hilfe & Kontakt
Informationen
OpenAIRE Validator logo electronic library verwendet EPrints 3.3.12
Gestaltung Webseite und Datenbank: Copyright © Deutsches Zentrum für Luft- und Raumfahrt (DLR). Alle Rechte vorbehalten.