Training von Black-Box Reglern für ungenaue Modelle
Ist ein analytischer Regelungsentwurf schwierig, z.B. aufgrund eines sehr nichtlinearen Modells, können alternative Methoden aus dem Bereich des maschinellen Lernens eingesetzt werden, z.B. policy-gradient Methoden, gradientenfreie Optimierung oder angenähertes explizites MPC. Diese Methoden trainieren einen Regler in Form einer parametrischen Funktion, wobei das Verhalten in einer Kostenfunktion definiert wird. Da der Regler auf einem vereinfachten Modell in der Simulation trainiert wird, kann die Anwendung der Regelung auf das reale System je nach Genauigkeit des Simulationsmodells eine deutlich schlechtere Regelgüte aufweisen. Dieser Performance-Verlust kann durch Änderungen im Regelungsentwurfs reduziert werden, und die Ableitung und Erprobung solcher Methoden ist Teil der Forschung an unserem Lehrstuhl.
Wiss. Bearbeiter: Christian Dengler, M. Sc., Assistent am Lehrstuhl von 2015 bis 2020