Always-on Deep Neural Networks

Third party funded individual grant


Start date : 01.03.2023

End date : 28.02.2026


Project details

Short description

Computer vision contributes in creating visual priors as self-contained tasks or input to another system. In the context of autonomous navigation, the system can be a mobile agent that not only relies on the raw sensory inputs, but also on computer vision algorithms for understanding the environment. Recent studies on embodied agents show that an agent acts more accurately when visual priors such as semantic segmentation, depth estimation are provided next to the raw input data. Producing the visual priors though comes at the cost of data collection and annotation. The latest approaches build on deep neural networks, which are trained with supervision. For that propose, a large pool of data and annotations has to be created prior to training the model. To address this limitation, simulation is an alternative source for data and annotation generation. In the context of deep neural networks, it can be considered for the replacing the real-world, where a large amount of synthetic data is created according to the task in place. Although, the data simulation has clear advantages over the real-world datasets, there is also a clear limitation. Training a deep neural network with synthetic data does not result in good performance on real-world data.In this research project, we are going to conduct research on closing the performance drop when transferring deep neural network models from the simulation to real-world applications. Our testbed for measuring the performance will be semantic image segmentation and depth estimation from a single image. In our research, we will propose algorithms that teach a deep neural network how to fast learn adapting into new environments. This concept is widely known as meta-learning. In this project, it will be explored for learning a model in simulation and then transferring it to the real-world. Meta-learning has never been seen as a way to tackle model transfer, but its formulation suits well to the problem.

Scientific Abstract

EdgeAI ist das verteilte Rechenparadigma für die Ausführung von Algorithmen für maschinelles Lernen Nahe am Sensor. Im Vergleich zu zentralisierten, z.B. cloud-basierten Lösungen, werden Datensicherheit, geringe Latenz und Bandbreitenreduktion erreicht. Gleichzeitig gibt es das große Problem, dass der Leistungsverbrauch heutiger, tiefer neuronaler Netze für maschinelles Lernen für solche Anwendungen viel zu groß ist. Moderne Netzwerkarchitekturen sind komplex und stellen hohe Anforderungen an die Rechenressourcen. Folglich ist die Ausführung tiefer neuronaler Netzwerke auf Edge-Geräten nicht Stand der Technik. Um dieses Problem anzugehen, müssen die Netzwerkarchitekturen unter Berücksichtigung der Speicher-, Gleitkommaoperationen und Parameterdiskretisierungsfaktoren neu entworfen werden. Dieser Prozess wird als neuronale Netzwerkkomprimierung bezeichnet. Außerdem muss die ausführende Hardware dem angepasst werden, um einen effizienten Betrieb des neuronalen Netzwerks zu gewährleisten. Insbesondere können spezielle Beschleunigerschaltungen auf Basis integrierter Schaltungen Lösungen in Bezug auf die Speicherhierarchie bereitstellen und eine Rechenschaltung mit anpassbarer Präzision bei mittlerer Genauigkeit nutzen, um den Stromverbrauch massiv zu senken. Dieses Projekt zielt darauf ab, neue Mixed-Signal-Schaltungen und -Architekturen mit einer zur Laufzeit einstellbaren Rechengenauigkeit sowie den Entwurf und das Training eines Hardware-angepassten neuronalen Netzwerks mit Hybridgenauigkeit auf dieser Hardware zu erforschen. Im Kontext der benutzerdefinierten Hardware wird die Komprimierung neuronaler Netzwerke als Co-Design- und Co-Training-Aufgabe untersucht, bei der die Hardware Teil der Optimierung ist.

Involved:

Contributing FAU Organisations:

Funding Source