Stage-oe-small.jpg

Thema4569

Aus Aifbportal
Version vom 10. März 2020, 15:35 Uhr von Dh1659 (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „{{Abschlussarbeit |Titel=Safe Model-Based Reinforcement Learning with Model Predictive Control |Vorname=Tianyang |Nachname=Li |Abschlussarbeitstyp=Master |Betr…“)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Wechseln zu:Navigation, Suche



Safe Model-Based Reinforcement Learning with Model Predictive Control


Tianyang Li



Informationen zur Arbeit

Abschlussarbeitstyp: Master
Betreuer: Mohammd Karam Daaboul
Forschungsgruppe: Angewandte Technisch-Kognitive Systeme
Partner: FZI Forschungszentrum Informatik
Archivierungsnummer: 4569
Abschlussarbeitsstatus: Abgeschlossen
Beginn: 17. September 2019
Abgabe: 16. Januar 2020

Weitere Informationen

In dieser Arbeit wird das modellbasierte Reinforcement Learning aufgrund seiner Stichprobenezienz und der allgemeinen Anwendbarkeit eingesetzt. Beobachtungsdaten aus einer simulierten Umgebung, dem CARLA-Simulator, werden von den Sensoren des Fahrzeugs erfasst. Die gesammelten Daten werden dann zum Lernen eines dynamischen neuronalen Netzmodells verwendet, das dann mit der modellbasierten prädiktiven Steuerung kombiniert wird, um Handlungsempfehlungen zu geben. Der Agent führt die erste Aktion des Plans aus und verwirft den Rest sofort. Alle neuen Übergänge werden gespeichert und dann zur Verbesserung der Dynamik verwendet. Eine weitere Herausforderung ist die sicherheitskritische Natur autonomer Fahrzeugsysteme. Um sicheres Lernen zu gewährleisten, wird das RSS-Modell (Responsibility-Sensitive Safety) eingesetzt. Dabei werden die Definitionen von Safe Distance und One-Way Traffic Scenarios aus RSS angewendet.