Simon Garske
Gleitkommadarstellungen mit geringer Wortbreite für Maschinelles Lernen auf FPGAs

Abstract
In dieser Arbeit zu Gleitkommadarstellungen mit geringer Wortbreite für Maschinelles Lernen auf FPGAs wird auf die Herausforderungen durch die geringere Wortbreite eingegangen und auf Möglichkeiten, diese umzusetzen. Durch geringere Wortbreiten als 32 Bit können sowohl Speicherplatz gespart werden, als auch Datenübertragung beschleunigt und Energieeffizienz gesteigert werden, da für die Recheneinheiten weniger Platz benötigt wird, was Ressourcensparender und schneller ist. Die Probleme, die durch die geringe Anzahl an Bits auftreten, können durch verschiedene Verfahren minimiert werden. Da maschinelles Lernen versucht, für einen bestimmten Datensatz ein möglichst gutes Ergebnis mit einer bestimmten Genauigkeit zu erzielen, lässt sich auch mit geringer Wortbreite ein Ergebnis entwickeln, welches hinsichtlich ihrer Genauigkeit dem Ergebnis der standardmäßigen 32 Bit Wortbreite nur minimal unterlegen ist. Im Anschluss wird die Bibliothek "Templatised Soft Floating-Point" genauer betrachtet und mit Hilfe dieser Bibliothek eine eigene Implementierung mit geringen Wortbreiten vorgenommen. Es folgt die Auswertung der Implementierung mit Beurteilung der Ressourcennutzung und deren Vergleich mit anderen Implementierungen aus der Literatur.