elib
DLR-Header
DLR-Logo -> http://www.dlr.de
DLR Portal Home | Impressum | Datenschutz | Kontakt | English
Schriftgröße: [-] Text [+]

Approximation of Activation Functions for Vector Equalization based on Recurrent Neural Networks

Mostafa, Mohamad und Teich, Werner und Lindner, Jürgen (2014) Approximation of Activation Functions for Vector Equalization based on Recurrent Neural Networks. In: international symposium on turbo codes and iterative information processing ISTC'14. International symposium on turbo codes and iterative information processing ISTC'14, 2014-08-18 - 2014-08-22, Bremen, Deutschland. doi: 10.1109/ISTC.2014.6955084.

[img] PDF - Nur DLR-intern zugänglich
172kB

Kurzfassung

Activation functions represent an essential element in all neural networks structures. They influence the overall behavior of neural networks decisively because of their nonlinear characteristic. Discrete- and continuous-time recurrent neural networks are a special class of neural networks. They have been shown to be able to perform vector equalization without the need for a training phase because they are Lyapunov stable under specific conditions. The activation function in this case depends on the symbol alphabet and is computationally complex to be evaluated. In addition, numerical instability can occur during the evaluation. Thus, there is a need for a computationally less complex and numerically stable evaluation. Especially for the continuous-time recurrent neural network, the evaluation must be suitable for an analog implementation. In this paper, we introduce an approximation of the activation function for vector equalization with recurrent neural networks. The activation function is approximated as a sum of shifted hyperbolic tangent functions, which can easily be realized in analog by a differential amplifier. Based on our ongoing research in this field, the analog implementation of vector equalization with recurrent neural networks is expected to improve the power/speed ratio by several order of magnitude compared with the digital one.

elib-URL des Eintrags:https://elib.dlr.de/89555/
Dokumentart:Konferenzbeitrag (Vortrag)
Titel:Approximation of Activation Functions for Vector Equalization based on Recurrent Neural Networks
Autoren:
AutorenInstitution oder E-Mail-AdresseAutoren-ORCID-iDORCID Put Code
Mostafa, Mohamadmohamad.mostafa (at) dlr.deNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Teich, Wernerwerner.teich (at) uni-ulm.deNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Lindner, Jürgenjuergen.lindner (at) uni-ulm.deNICHT SPEZIFIZIERTNICHT SPEZIFIZIERT
Datum:2014
Erschienen in:international symposium on turbo codes and iterative information processing ISTC'14
Referierte Publikation:Ja
Open Access:Nein
Gold Open Access:Nein
In SCOPUS:Nein
In ISI Web of Science:Nein
DOI:10.1109/ISTC.2014.6955084
Status:veröffentlicht
Stichwörter:vector equalization, recurrent neural network, function approximation
Veranstaltungstitel:International symposium on turbo codes and iterative information processing ISTC'14
Veranstaltungsort:Bremen, Deutschland
Veranstaltungsart:internationale Konferenz
Veranstaltungsbeginn:18 August 2014
Veranstaltungsende:22 August 2014
Veranstalter :Jakob university Bremen
HGF - Forschungsbereich:Luftfahrt, Raumfahrt und Verkehr
HGF - Programm:Raumfahrt
HGF - Programmthema:Kommunikation und Navigation
DLR - Schwerpunkt:Raumfahrt
DLR - Forschungsgebiet:R KN - Kommunikation und Navigation
DLR - Teilgebiet (Projekt, Vorhaben):R - Vorhaben GNSS2/Neue Dienste und Produkte (alt)
Standort: Oberpfaffenhofen
Institute & Einrichtungen:Institut für Kommunikation und Navigation > Nachrichtensysteme
Hinterlegt von: Mostafa, Mohamad
Hinterlegt am:07 Okt 2014 10:26
Letzte Änderung:24 Apr 2024 19:55

Nur für Mitarbeiter des Archivs: Kontrollseite des Eintrags

Blättern
Suchen
Hilfe & Kontakt
Informationen
electronic library verwendet EPrints 3.3.12
Gestaltung Webseite und Datenbank: Copyright © Deutsches Zentrum für Luft- und Raumfahrt (DLR). Alle Rechte vorbehalten.