Hardware architectures for synthetic aperture radar autofocus
- verfasst von
- Niklas Rother
- betreut von
- Holger Christoph Blume
- Abstract
Bildgebung durch Radar mit synthetischer Apertur (Synthetic Aperture Radar (SAR)) von kleinen unbemannten Luftfahrzeugen (UAVs) verspricht eine leistungsfähige Technologie für Anwendungen in der Fernerkundung und verwandten Bereichen zu sein. Oft würde die Erzeugung von Bildern an Bord und die Live-Übertragung dieser Bilder an den Boden die Praktikabilität von SAR-Unmanned Aerial Vehicles (UAVs) erhöhen. Kleine UAVs sind anfällig für Wind und nicht kompensierte Flugbahnabweichungen verursachen Phasenfehler, welche die Bildqualität verschlechtern. Dies kann mit Autofokus-Techniken überwunden werden. Ziel dieser Arbeit ist es, zu bestimmen wie sich Autofokusverarbeitung in das Gebiet der Echtzeit-SAR-Verarbeitung einordnet. Zu diesem Zweck wurde ein bestehendes Konzept für die SAR-Verarbeitung an Bord um Autofokus-Techniken erweitert. Ein besonderer Schwerpunkt wurde auf leistungsfähige Verarbeitung gelegt, um das Ziel der Echtzeit-Bildgenerierung zu erreichen. Das neu entwickelte Autofokussystem wurde auf einem Field Programmable Gate Array (FPGA) und einem Transport Triggered Architecture (TTA)-Prozessor implementiert. In einem ersten Schritt wurde ein mögliches und realistisches UAV-basiertes SAR-System konzipiert, welches einen Rahmen für den Rest dieser Arbeit bildet. Anschließend wurden mehrere SAR-Autofokusalgorithmen hinsichtlich ihrer Eignung für die FPGA-Implementierung verglichen und Backprojection Autofocus von Duersch und Long als am besten geeignet ausgewählt. Der bestehende Bildgebungsalgorithmus ist gut parallelisierbar und kann die parallele Natur eines FPGA ausnutzen. Im Gegensatz dazu wird der Autofokusalgorithmus durch die verfügbare Speicherbandbreite begrenzt. Auf der ausgewählten FPGA-Plattform konnten nur drei Pixel parallel verarbeitet werden, was zu einer 36,5-fachen Erhöhung der Laufzeit und 27,8-fachen Erhöhung des Energieverbrauchs im Vergleich zur alleinigen Bildgebung führte. Hinsichtlich der Energieeffizienz wurde die FPGA-Version (1.54×10−8 J/Op) als effizienter als eine Implementierung auf einer eingebetteten GPU (2.23×10−8 J/Op) befunden. Als Alternative wurden TTA-Prozessoren untersucht. Ein angepasster Prozessor wurde für die 22FDX-Technologie von GlobalFoundries synthetisiert. Bei einer Taktfrequenz von 700 MHz wurde die Leistungsaufnahme auf 201 mW für einen einzelnen Kern geschätzt. Dies führt zu einer Energieeffizienz von 5.44 ×10−8 J/Op, was in derselben Größenordnung wie die FPGA-Version liegt. Um einen praktisch relevanten Durchsatz zu erreichen, ist jedoch eine Mehrkernimplementierung erforderlich. Unter der Annahme einer realistischen Bildgebungsgeometrie ermöglicht die hier vorgestellte FPGA-Implementierung eine Fluggeschwindigkeit von 3.41 m/s bei gleichzeitiger Live-Bildgebung und -fokussierung. Die vorliegende Arbeit zeigt folglich, dass eine vollständige Bildgenerierung und Autofokusverarbeitung in Echtzeit und innerhalb der Leistungs- und Platzbeschränkungen eines kleinen UAVs möglich sind.
- Organisationseinheit(en)
-
Fachgebiet Architekturen und Systeme
- Typ
- Dissertation
- Anzahl der Seiten
- 114
- Publikationsdatum
- 12.11.2024
- Publikationsstatus
- Veröffentlicht
- Ziele für nachhaltige Entwicklung
- SDG 7 – Erschwingliche und saubere Energie
- Elektronische Version(en)
-
https://doi.org/10.15488/18117 (Zugang:
Offen)