elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Impressum | Datenschutz | Kontakt | English
Schriftgröße: [-] Text [+]

The Necessity and Possibility of Trustworthy AI

Braun, Hagen und Albrecht, Lukas (2023) The Necessity and Possibility of Trustworthy AI. MANCEPT Workshops 2023, 2023-09-11 - 2023-09-13, Manchester, Vereinigtes Königreich. (nicht veröffentlicht)

[img] PDF
636kB

Kurzfassung

Calls for trustworthy artificial intelligence (AI) have become increasingly common in recent years. This paper investigates the validity of the concept of trustworthy AI: Is it possible to call AI trustworthy without committing a category mistake, equivocation fallacy or undue anthropomorphization? And if so, is trust in AI a good pathway to ethical AI development and use? We start by analyzing the value of trust through the lens of its constitutive aim: The mitigation of the characteristic kind of risk that arises in the context of interaction with other agents in virtue of their autonomy (agential risk). Then, we describe the notion of trust both formally and substantively with the aim of establishing how well-founded trust can serve this functional role and what being a trustworthy agent amounts to. We identify a dilemma in the AI context: Trustworthy AI is necessary because AI agents are sources of agential risk which needs to be managed. But at the same time, AI agents cannot fulfill the preconditions necessary to be called trustworthy because they lack the capacity to possess normatively well-grounded motivations for their actions. We resolve this dilemma by explaining how AI agents’ aims can be normatively grounded through their creators and the design process, without simply reducing trust in an AI agent to trust in its creators. We conclude that trustworthy AI is a meaningful concept that can help structure our approach to ethically sound human-AI-interaction.

elib-URL des Eintrags:https://elib.dlr.de/202536/
Dokumentart:Konferenzbeitrag (Vortrag)
Titel:The Necessity and Possibility of Trustworthy AI
Autoren:
AutorenInstitution oder E-Mail-AdresseAutoren-ORCID-iDORCID Put Code
Braun, Hagenhagen.braun (at) dlr.deNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Albrecht, Lukaslukas.albrecht (at) dlr.dehttps://orcid.org/0009-0009-4884-6551NICHT SPEZIFIZIERT
Datum:September 2023
Referierte Publikation:Nein
Open Access:Ja
Gold Open Access:Nein
In SCOPUS:Nein
In ISI Web of Science:Nein
Status:nicht veröffentlicht
Stichwörter:Artificial Intelligence, Trust, Trustworthiness, Ethics, Agency, Human-Machine-Interaction
Veranstaltungstitel:MANCEPT Workshops 2023
Veranstaltungsort:Manchester, Vereinigtes Königreich
Veranstaltungsart:internationale Konferenz
Veranstaltungsbeginn:11 September 2023
Veranstaltungsende:13 September 2023
Veranstalter :University of Manchester
HGF - Forschungsbereich:keine Zuordnung
HGF - Programm:keine Zuordnung
HGF - Programmthema:keine Zuordnung
DLR - Schwerpunkt:keine Zuordnung
DLR - Forschungsgebiet:keine Zuordnung
DLR - Teilgebiet (Projekt, Vorhaben):keine Zuordnung
Standort: Bremerhaven
Institute & Einrichtungen:Institut für den Schutz maritimer Infrastrukturen > Resilienz Maritimer Systeme
Hinterlegt von: Braun, Hagen
Hinterlegt am:31 Jan 2024 15:11
Letzte Änderung:24 Apr 2024 21:02

Nur für Mitarbeiter des Archivs: Kontrollseite des Eintrags

Blättern
Suchen
Hilfe & Kontakt
Informationen
electronic library verwendet EPrints 3.3.12
Gestaltung Webseite und Datenbank: Copyright © Deutsches Zentrum für Luft- und Raumfahrt (DLR). Alle Rechte vorbehalten.