- AutorIn
- Bingyu Wang Technische Universität Dresden
- Titel
- Multi-Task Real-World Autonomous Driving
- Zitierfähige Url:
- https://nbn-resolving.org/urn:nbn:de:bsz:14-qucosa2-989479
- Übersetzter Titel (DE)
- Multitasking im realen autonomen Fahren
- Datum der Einreichung
- 21.08.2025
- Datum der Verteidigung
- 27.08.2025
- Abstract (DE)
- Diese Arbeit untersucht auf Basis einer ROS-Systemarchitektur mehrere Aufgaben des autonomen Fahrens in realen Umgebungen und vergleicht zwei Steuerungsansätze: (i) eine klassische Pipeline mit PID-Regelung und (ii) End-to-End-Deep-Learning-Modelle, die Kamerabilder direkt auf Steuerkommandos abbilden. Beide Verfahren werden auf zwei Roboterfahrzeugplattformen – dem Bosch-Fahrzeug und dem Duckiebot – implementiert und evaluiert Auf der Deep-Learning-Seite wird ein Regressionsmodell eingesetzt, das für die Spurhaltung eine einzelne Winkelgeschwindigkeit vorhersagt; die Winkelgeschwindigkeit ($\omega$) wird mit dem mittleren absoluten Fehler (MAE) als Verlustfunktion trainiert. Ein Klassenungleichgewicht wird durch Resampling adressiert und mit einer asymmetrischen Verlustmethode verglichen, die Kurvensegmente stärker penalisiert. Auf Systemseite werden eine Perspektivtransformation und Vorverarbeitung der Bilder, die Spuranpassung, die Erkennung von Verkehrsschildern und Fußgängern sowie eine PID-Regelung implementiert und zu einer stabilen autonomen Fahr-Baseline integriert. Experimente auf realen Parcours unter normaler Innenraumbeleuchtung sowie mit zusätzlicher Beleuchtung zeigen, dass End-to-End-LSTM-Modelle die zeitliche Kontinuität besser ausnutzen und dadurch eine stabilere Spurhaltung sowie ein gleichmäßigeres Lenken bei schwachen Lichtverhältnissen erreichen. Die Merkmalsextraktionsfähigkeit des Deep Learning kann die hohe Sensitivität gegenüber Beleuchtungseinflüssen bis zu einem gewissen Grad mindern und ermöglicht dadurch stabileres Fahren in realen Umgebungen mit stärker variierender Beleuchtung. Zudem trägt Resampling wesentlich zur Balancierung des Datensatzes bei und stärkt das Training auf komplexeren Segmenten.
- Freie Schlagwörter (DE)
- Autonomes Fahren, ROS, End-to-End-Ansatz, Duckiebot, Bosch-Wettbewerb
- Freie Schlagwörter (EN)
- Autonomous driving, ROS, End-to-End, Duckiebot, Bosch Competition
- Klassifikation (DDC)
- 380
- Klassifikation (RVK)
- ZO 4660
- GutachterIn
- Prof. Dr. rer. pol. Ostap Okhrin
- Prof. Dr. rer. pol. Pascal Kerschke
- BetreuerIn Hochschule / Universität
- Dianzhao Li
- Den akademischen Grad verleihende / prüfende Institution
- Technische Universität Dresden, Dresden
- Version / Begutachtungsstatus
- angenommene Version / Postprint / Autorenversion
- URN Qucosa
- urn:nbn:de:bsz:14-qucosa2-989479
- Veröffentlichungsdatum Qucosa
- 09.09.2025
- Dokumenttyp
- Masterarbeit / Staatsexamensarbeit
- Sprache des Dokumentes
- Englisch
- Lizenz / Rechtehinweis
CC BY-NC 4.0- Inhaltsverzeichnis
1. Introduction 1.2 Autonomous Driving Overview 1.3 Problem Description 2. Research background 2.1 Theoretical Background 2.1.1 Machine Learning 2.1.2 Deep Learning 2.1.3 Robot Operation System 2.2 Related Work 3. Hardware Platform and Integration 3.1 Platform Introduction 3.1.1 Bosch Challenge Car 3.1.2 Duckiebot 3.2 ROS System Architecture 3.2.1 Overview of Package Structure and File functions 3.2.2 Node Relationship of the Core Module 3.3 Hardware-Software Interface and Integration 3.4 Real World Map Design 4. Software Implementation 4.1 Baseline Method 4.1.1 Image Pre-processing and Feature Extraction 4.1.2 Lane Model Fitting 4.1.3 PID Contro 4.1.4 Extended Autonomous Driving Functions 4.2 End-to-end Method 4.2.1 Data Collection and Data Distribution 4.2.2 Image Pre-processing 4.2.3 Network Architecture and Parameters 4.3 Summary 5. Experiments 5.1 Single-Output Regression Model 5.1.1 Resampling vs. Weighted Loss 5.1.2 CNN vs. LSTM 5.2 Multi-task Hybrid Model 6. Performance Evaluation 6.1 Single-Output Regression Model 6.2 Multi-task Hybrid Model 7. Conclusion and future work 7.1 Summary 7.2 Limitations and Future Work