elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Impressum | Datenschutz | Kontakt | English
Schriftgröße: [-] Text [+]

User Participation in the Design of Trustworthy Human-AI-Collaboration in Air-Traffic Control

Bruder, Carmen und Theis, Sabine und Stefani, Thomas und Jameel, Mohsan und Hunger, Robert und Schulze Kissing, Dirk (2024) User Participation in the Design of Trustworthy Human-AI-Collaboration in Air-Traffic Control. HFES Europe Chapter - Annual Meeting, 2024-04-17 - 2024-04-19, Lübeck, Germany.

[img] PDF
531kB

Kurzfassung

The introduction of AI-based systems is one of the core elements in the course of digital transformation in aviation. Human factors expertise is needed to find user-centered approaches of human-AI collaboration. The DLR project Collaboration of human operators and AI systems (LOKI) aims at developing concepts, demonstrators and prototypes for trustworthy human-AI collaboration in air traffic control. To consider users’ perspective in early design phases, two workshops with experienced air traffic controllers of Deutsche Flugsicherung GmbH (DFS) and Austro Control were conducted. The metaplan method was used to asses users’ expectations and their requirements on Human-AI collaboration. In both workshops, ten air traffic controllers participated. The workshops highlighted what users expect from trustworthy Human-AI collaboration in Air Traffic Control. The main results were users’ assessment which of their tasks could be delegated to an AI system and how the delegation of tasks to AI-systems should be designed. The workshops were a success among the participants as they provided insight into future requirements, responsibilities and tasks. Furthermore, they helped outline potential challenges in the interaction concept that must be solved to integrate AI systems successfully in aviation. These findings will be used for the concept design of prototypes.

elib-URL des Eintrags:https://elib.dlr.de/204858/
Dokumentart:Konferenzbeitrag (Poster)
Titel:User Participation in the Design of Trustworthy Human-AI-Collaboration in Air-Traffic Control
Autoren:
AutorenInstitution oder E-Mail-AdresseAutoren-ORCID-iDORCID Put Code
Bruder, CarmenCarmen.Bruder (at) dlr.dehttps://orcid.org/0000-0003-2638-2361NICHT SPEZIFIZIERT
Theis, Sabinesabine.theis (at) dlr.dehttps://orcid.org/0000-0002-3422-3734162440653
Stefani, ThomasThomas.Stefani (at) dlr.dehttps://orcid.org/0000-0001-7352-0590162440654
Jameel, Mohsanmohsan.jameel (at) dlr.deNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Hunger, RobertRobert.Hunger (at) dlr.dehttps://orcid.org/0009-0008-5127-0832162440656
Schulze Kissing, DirkDirk.Schulze-Kissing (at) dlr.dehttps://orcid.org/0000-0002-6626-9382NICHT SPEZIFIZIERT
Datum:April 2024
Referierte Publikation:Ja
Open Access:Ja
Gold Open Access:Nein
In SCOPUS:Nein
In ISI Web of Science:Nein
Status:veröffentlicht
Stichwörter:air traffic control, user workshops, human-centred-design, trustworthy artifical intelligence
Veranstaltungstitel:HFES Europe Chapter - Annual Meeting
Veranstaltungsort:Lübeck, Germany
Veranstaltungsart:internationale Konferenz
Veranstaltungsbeginn:17 April 2024
Veranstaltungsende:19 April 2024
Veranstalter :Human Factors Ergonomic Society - Europe Chaper
HGF - Forschungsbereich:Luftfahrt, Raumfahrt und Verkehr
HGF - Programm:Luftfahrt
HGF - Programmthema:Luftverkehr und Auswirkungen
DLR - Schwerpunkt:Luftfahrt
DLR - Forschungsgebiet:L AI - Luftverkehr und Auswirkungen
DLR - Teilgebiet (Projekt, Vorhaben):L - Faktor Mensch
Standort: Hamburg
Institute & Einrichtungen:Institut für Luft- und Raumfahrtmedizin > Luft- und Raumfahrtpsychologie
Institut für Softwaretechnologie > Intelligente und verteilte Systeme
Institut für Flugführung > Lotsenassistenz
Hinterlegt von: Bruder, Dr. Carmen
Hinterlegt am:27 Jun 2024 09:04
Letzte Änderung:27 Jun 2024 09:04

Nur für Mitarbeiter des Archivs: Kontrollseite des Eintrags

Blättern
Suchen
Hilfe & Kontakt
Informationen
electronic library verwendet EPrints 3.3.12
Gestaltung Webseite und Datenbank: Copyright © Deutsches Zentrum für Luft- und Raumfahrt (DLR). Alle Rechte vorbehalten.