Third Party Funds Group - Sub project
Acronym: 6G-ICAS4Mobility
Start date : 01.10.2022
End date : 30.09.2025
Der Lehrstuhl LITES fokussiert sich auf die Durchführung von Untersuchungen, die grundlegende Zusammenhänge, Abhängigkeiten, Metriken, (Übertragungs- und Bewertungs-)Verfahren und Limitationen sowie potenzielle Sicherheitsrisiken für eine Integrated Communications & Sensing (ICAS) Technologie auf Basis von 6G für Mobilitätssysteme aufzeigen und abschätzen lassen. Hierbei werden Analysen und Tradeoff-Untersuchungen zu erzielbarer Sensierungsqualität (Quality-of-Sensing) bei kombinierter Nutzung von Radar und Sidelink-Kommunikation und der wechselseitige Einfluss von Sensing-Qualitäten auf Sidelink-Quality-of-Service durchgeführt. Hierbei werden Lösungsansätze für Multi-Point-Sensierung und Sidelink-basiertes kollaboratives Agieren und dafür geeignete Funkzugriffverfahren untersucht. Das Teilvorhaben betrachtet verschiedene Integrationslevel (kooperativ, co-designt, gemeinsame Wellenform) und konzentriert sich dabei vorwiegend auf die Fahrzeugperspektive und die Verwendung des Sidelinks.
Um Risiken in ICAS-Systemen abschätzen zu können, wird eine Sicherheitsanalyse zu Verfahren der Identitätssicherung von über Sidelink kollaborierenden Fahrzeugen durchgeführt. Ausgehend von den bestehenden, spezifizierten Security-Technologien in 5G und 3GPP-Sidelink werden die verschiedenen Varianten und potenziellen Risiken/Schwachstellen bei der Verbindungsherstellung zur Identitätserkennung, der Authentifizierung und der Datenverschlüsselung analysiert. Zudem sollen Verbesserungsmöglichkeiten bei der Identitätssicherung durch Einbezug von (kollaborativ) erhobenen Sensierungsinformationen (Radarfunktionen) untersucht werden.
Das Ziel von 6G-ICAS4Mobility besteht darin, im Zuge der Entwicklungen hin zu 6G bislang getrennte Kommunikations- und Sensierungsfunktionalitäten (insb. Radar) enger miteinander zu koppeln und zu integrieren. Der Fokus liegt dabei auf mobilen Anwendungen im Kontext Automotive und Flugdrohnen, sowie auf der Endgeräteseite mit einer direkten Kommunikation („Sidelink“) zwischen den beteiligten Geräten. Dabei werden verschiedene Integrationsstufen betrachtet und evaluiert, was von einer Nutzung der Kommunikationsfähigkeiten zur Koordination verschiedener Radare bis hin zu einer tiefen Integration unter Verwendung einer einzigen Wellenform reicht. Durch die Koordination der Sensierungsfunktionalitäten über verschiedene Geräte (z. B. Fahrzeuge, Drohnen) hinweg in Verbindung mit einer hochgenauen Zeitsynchronisation lassen sich zudem bi- bzw. multistatische Radare realisieren, wodurch die Effizienz gesteigert und die Umgebungserfassung signifikant verbessert werden kann. Darüber hinaus soll eine verteilte Fusion der von verschiedenen Teilnehmern generierten Umgebungsabbilder (als eine Art digitaler Zwilling der Umgebung) realisiert werden, um auch komplexe Szenarien akkurat und effizient erfassen zu können. Neben zahlreichen konzeptionellen Arbeiten sollen dabei auch vier konkrete Szenarien (inkl. umfangreicher Funkkanalmessungen) im Sinne eines Proof-of-Concepts praktisch umgesetzt und umfassend evaluiert werden.