MATH130039.01 最优控制理论 Optimal Control Theory

最优控制理论是设计控制器的数学理论,是从数学上描述和解决最优控制问题的理论、思想和方法体系, 包括最优控制问题的数学表述、最优控制的存在性、最优控制的必要条件和充分条件等,涉及常微分方程解的估计、泛函导数的计算以及非线性偏微分方程解的性质等数学基础知识.
本课程的教学内容包括: 线性系统的时间最优控制理论、无限时区线性-二次最优控制问题的闭环解理论、附有状态终端约束(含无约束情形)的有限时区线性-二次最优控制问题之解的理论、Bellman动态规划方法、最优控制的Pontryagin必要条件、最优控制的充分条件和存在性等