elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Impressum | Datenschutz | Kontakt | English
Schriftgröße: [-] Text [+]

Segmentation of Surgical Instruments for Minimally-Invasive Robot-Assisted Procedures Using Generative Deep Neural Networks

Azqueta Gavaldon, Iñigo (2019) Segmentation of Surgical Instruments for Minimally-Invasive Robot-Assisted Procedures Using Generative Deep Neural Networks. DLR-Interner Bericht. DLR-IB-RM-OP-2020-17. Masterarbeit. Technische Universität München.

[img] PDF - Nur DLR-intern zugänglich
9MB

Kurzfassung

This work proves that semantic segmentation on Minimally Invasive Surgical Instruments can be improved by using training data augmented through domain adaptation. The benefit of these methods is two fold. Firstly, it suppresses the need of manually labeling thousands of images, by transforming synthetic data into realistic-looking data. To achieve this, a CycleGAN model is used, which transforms a source dataset to approximate the domain distribution of a target dataset. Secondly, this new generated data with perfect labels is utilized to train a semantic segmentation neural network, a U-Net. This method shows great generalization capabilities on data with great variability, i.e. the model is rotation- position- and lighting conditions invariant. Nevertheless, one of the caveats of this approach is that the model is unable to generalize well to other surgical instruments with a different shape of the one used for training. This seems to be driven by the lack of a high variance in the geometric distribution of the training data. To this end future work should focus on making the model more scale-invariant and able to adapt to other types of surgical instruments previously unseen by the training.

elib-URL des Eintrags:https://elib.dlr.de/134016/
Dokumentart:Berichtsreihe (DLR-Interner Bericht, Masterarbeit)
Titel:Segmentation of Surgical Instruments for Minimally-Invasive Robot-Assisted Procedures Using Generative Deep Neural Networks
Autoren:
AutorenInstitution oder E-Mail-AdresseAutoren-ORCID-iDORCID Put Code
Azqueta Gavaldon, IñigoNICHT SPEZIFIZIERTNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Datum:15 August 2019
Referierte Publikation:Nein
Open Access:Nein
Status:veröffentlicht
Stichwörter:deep learning; minimally invasive surgery; sim2real;
Institution:Technische Universität München
Abteilung:Department of Informatics
HGF - Forschungsbereich:Luftfahrt, Raumfahrt und Verkehr
HGF - Programm:Raumfahrt
HGF - Programmthema:Technik für Raumfahrtsysteme
DLR - Schwerpunkt:Raumfahrt
DLR - Forschungsgebiet:R SY - Technik für Raumfahrtsysteme
DLR - Teilgebiet (Projekt, Vorhaben):R - Vorhaben Multisensorielle Weltmodellierung (alt)
Standort: Oberpfaffenhofen
Institute & Einrichtungen:Institut für Robotik und Mechatronik (ab 2013) > Perzeption und Kognition
Hinterlegt von: Strobl, Dr. Klaus H.
Hinterlegt am:10 Feb 2020 12:45
Letzte Änderung:10 Feb 2020 12:45

Nur für Mitarbeiter des Archivs: Kontrollseite des Eintrags

Blättern
Suchen
Hilfe & Kontakt
Informationen
electronic library verwendet EPrints 3.3.12
Gestaltung Webseite und Datenbank: Copyright © Deutsches Zentrum für Luft- und Raumfahrt (DLR). Alle Rechte vorbehalten.