Доклады Российской академии наук. Физика, технические науки, 2021, T. 501, № 1, стр. 59-62

ГАРАНТИРОВАННАЯ ОЦЕНКА СОСТОЯНИЯ ДИНАМИЧЕСКОЙ СИСТЕМЫ ПРИ НАЛИЧИИ НАБЛЮДЕНИЙ С ОГРАНИЧЕННОЙ ВЕЛИЧИНОЙ ПОГРЕШНОСТИ

А. М. Шматков 1*

1 Институт проблем механики им. А.Ю. Ишлинского Российской академии наук
Москва, Россия

* E-mail: shmatkov@ipmnet.ru

Поступила в редакцию 18.08.2021
После доработки 18.08.2021
Принята к публикации 20.10.2021

Полный текст (PDF)

Аннотация

Получены уравнения для вычисления оптимальной гарантированной оценки состояния динамической системы по данным наблюдений при наличии ограниченного по величине шума. Для линейных по фазовому вектору и вектору наблюдений дифференциальных уравнений, описывающих искомую оценку, в рамках метода эллипсоидов показано, что оптимальное решение состоит из участков, где игнорируются либо данные наблюдений, либо свойства системы.

Ключевые слова: гарантированное оценивание, метод эллипсоидов, наблюдение за процессом с неопределенностью 

1. Исследуем нестационарную линейную систему с фазовым вектором $x(t)$ и соответствующие наблюдения, описываемые вектором $y(t)$ при наличии ошибки наблюдения ${v}(t)$:

(1)
$\begin{gathered} \dot {x} = A(t)x,\quad x \in {{{\mathbf{R}}}^{n}}, \\ y(t) = H(t)x + {v}(t),\quad y(t) \in {{{\mathbf{R}}}^{r}}. \\ \end{gathered} $

Пусть зависимости матриц $A(t)$ и $H(t)$ от времени известны, а система (1) при ${v}(t) \equiv 0$ вполне наблюдаема [1]. Все рассматриваемые функции времени таковы, что решения дифференциальных уравнений, в которых эти функции используются, существуют, а случаи, в которых понадобятся дополнительные ограничения, будут описаны особо.

При отсутствии информации о точном значении фазового вектора $x(t)$ в начальный момент времени в общем случае невозможно точно узнать его значения в дальнейшем. Поэтому возникает задача о нахождении оценки этого вектора, наилучшей в некотором смысле, по данным наблюдений. Этот смысл зависит от подхода к оценке ошибок в системе (1). В данной работе будет использован метод гарантированного оценивания с помощью эллипсоидов, предложенный в [2] и развитый позднее многими авторами, например, [3]. Метод предполагает, что все неопределенные величины находятся внутри известных эллипсоидов и по их параметрам для ошибки наблюдений и начального значения фазового вектора необходимо найти наилучший в смысле некоторого функционала эллипсоид, содержащий все возможные значения фазового вектора в заданный момент времени.

Обозначим эллипсоид, заданный l-мерным вектором центра χ и симметрической неотрицательно определенной ($l \times l$)-матрицей $\Theta $, через

(2)
$E(\chi ,\Theta ).$

Если $\Theta $ положительно определена, то

(3)
$E(\chi ,\Theta ) = \{ \ell \in {{{\mathbf{R}}}^{l}}{\text{:}}\,\,({{\Theta }^{{ - 1}}}(\ell - \chi ),\ell - \chi ) \leqslant 1\} ,$
где $\chi $ – центр, $\Theta $ – матрица. Если какие-либо собственные числа $\Theta $ обращаются в нуль, то под (2) будем понимать геометрическую фигуру, представляющую собой предел, к которому стремится последовательность эллипсоидов (3) с невырожденными матрицами, соответствующие собственные числа которых стремятся к нулю. В частности, $E(\chi ,\Theta )$ может быть точкой.

Предположим, что все возможные значения вектора ${v}(t)$ находятся внутри эллипсоида размерности $r \times r$, имеющего центр в начале системы координат и известную невырожденную матрицу $V(t)$:

(4)
${v}(t) \in E(0,V(t)).$

Пусть в начальный момент времени t0 известна оценка вектора x:

(5)
$x({{t}_{0}}) \in E({{\rho }_{0}},{{\Sigma }_{0}}),$
где вектор ${{\rho }_{0}}$ и матрица ${{\Sigma }_{0}}$ известны.

Необходимо найти вектор оценки $\rho (t) \in {{{\mathbf{R}}}^{n}}$ и соответствующую матрицу $\Sigma (t)$, так что $x(t)\, \in \,E(\rho (t)$, Σ(t)). Тогда вектор ошибки равен

(6)
$e(t) = x(t) - \rho (t),$
причем

(7)
$e(t) \in E(f(t),\Sigma (t)),\quad \Sigma ({{t}_{0}}) = {{\Sigma }_{0}}.$

Потребуем, чтобы в любой момент времени выполнялось условие

(8)
$f(t) \equiv 0.$

Его аналогом в рамках вероятностного подхода является требование несмещенности оценки. Введем функционал

(9)
$J = \operatorname{Tr} (L(T)\Sigma (T)).$

Здесь $T$ – некоторый фиксированный момент времени, а матрица $L(T)$ размерности $n \times n$ – симметрическая и положительно-определенная. Для лучшего понимания смысла функционала (9) в конкретных технических приложениях допустим, что матрица $\Sigma (T)$ диагональна, т.е. рассмотрим задачу в некоторой системе координат, получающейся из исходной путем поворота. Если матрица $L(T)$ в этой новой системе координат является единичной, то значение функционала (9) представляет собой сумму квадратов максимальных возможных отклонений оценки $\rho (T)$ от истинного точного значения фазового вектора $x(T)$. Если же все диагональные элементы матрицы $L(T)$, кроме одного, малы, то значение функционала (9) практически равно максимальному квадрату отклонения по соответствующей оси.

По аналогии с подходом, применяемым в рамках теории вероятностей [4], будем искать уравнения для $\rho (t)$ в форме нестационарной линейной системы

(10)
$\dot {\rho } = F(t)\rho + K(t)y(t),\quad \rho ({{t}_{0}}) = {{\rho }_{0}},$
где $F(t)$ и $K(t)$ – неизвестные матрицы.

Рассматриваемая в данной работе задача состоит в отыскании такого удовлетворяющего уравнениям (10) вектора $\rho (t)$ и соответствующей ему матрицы $\Sigma (t)$, чтобы функционал (9) достигал минимума при выполнении условия (8).

2. Найдем матрицы $F(t)$ и $K(t)$, доставляющие минимум функционалу (9) и обеспечивающие выполнение условия (8). Согласно (1), (6) и (10), вектор $e(t)$ удовлетворяет уравнению

$\dot {e} = (A(t)\, - \,F(t)\, - \,K(t)H(t))x(t) + F(t)e - K(t){v}(t).$

Для вектора $f(t)$ центра эллипсоида с матрицей $\Sigma (t)$, используя [3], а также с учетом (4), (10) и (11), можно получить уравнение

(12)
$\dot {f} = F(t)f + \zeta (t),\quad f({{t}_{0}}) = 0,$
где $\zeta (t)$ – центр эллипсоида, содержащего возможные значения вектора

(13)
$\xi (t) = \left( {A(t) - F(t) - K(t)H(t)} \right)x(t).$

Для выполнения условия (8) нужно, чтобы $\zeta (t)\, \equiv \,0$. Если выбрать

(14)
$F(t) = A(t) - K(t)H(t),$
то, согласно (13), вектор $\zeta (t) \equiv 0$. Тогда требование (8) выполнено. С учетом (14) уравнение (11) приобретает вид

(15)
$\dot {e} = \left( {A(t) - K(t)H(t)} \right)e(t) - K(t){v}(t).$

Согласно [3] для матрицы $\Sigma (t)$ на основании (4), (7) и (15) получаем

(16)
$\begin{gathered} \dot {\Sigma } = \left( {A{\text{'}} - KH} \right)\Sigma + \Sigma {{\left( {A{\text{'}} - KH} \right)}^{T}} + KV\,{\text{'}}{{K}^{T}}, \\ \Sigma ({{t}_{0}}) = {{\Sigma }_{0}}, \\ \end{gathered} $
где для сокращения формул введены обозначения

$A{\text{'}}(t) = A(t) + {{\left( {2q(t)} \right)}^{{ - 1}}}I{}_{n},\quad V\,{\text{'}}(t) = q(t)V(t).$

Здесь In – единичная матрица размерности $n \times n$. В [3] функция $q(t)$ найдена из условия минимизации скорости роста объема аппроксимирующего эллипсоида. В [5] показано, что в уравнениях [3] можно использовать произвольную скалярную функцию времени $q(t) \geqslant 0$ при $t \geqslant {{t}_{0}}$. При этом получающийся эллипсоид не является оптимальным, но содержит искомое множество, а потому найдем функцию $q(t)$ позже.

Для уравнения (16) необходимо найти матрицу $K$, доставляющую минимум функционалу (9). В [4] (см. также [1]) для этого был использован принцип максимума [6]. Получим

(17)
$K = \Sigma {{H}^{T}}{{V}^{{' - 1}}}.$

Этот результат зависит только от положительной определенности и симметричности матрицы $L(T)$, но не от конкретного вида этой матрицы и величины времени $T$. Тогда уравнение (10) для оценки вектора $x(t)$ примет вид

(18)
$\dot {\rho } = A\rho + \Sigma {{H}^{T}}{{V}^{{' - 1}}}\left( {y(t) - H\rho } \right),\quad \rho ({{t}_{0}}) = x({{t}_{0}}),$
а из (16) имеем

(19)
$\dot {\Sigma } = A{\text{'}}\Sigma + \Sigma {{A}^{{'T}}} - \Sigma {{H}^{T}}{{V}^{{' - 1}}}H\Sigma ,\quad \Sigma ({{t}_{0}}) = {{\Sigma }_{0}}.$

Заметим, что в формулу (18) для центра оценивающего эллипсоида входит матрица $A$, а не $A{\text{'}}$. В аналогичных уравнениях [8, 9] неверно указана матрица $A{\text{'}}$.

Если в соотношении (18) заменить матрицу эллипсоида $V\,{\text{'}}$ на матрицу интенсивности соответствующего белого шума, которая будет разной для разных выбранных функций $q(t)$, а в соотношении (19) в дополнение к этому заменить матрицу системы $A{\text{'}}$ на $A$, то полученные уравнения полностью совпадут с известными из вероятностной теории фильтрации для математического ожидания и дисперсии фазового вектора. Если при этом вместо ${v}(t)$ использовать гауссовый случайный процесс, то матрица, соответствующая матрице Σ–1, совпадет с информационной матрицей Фишера [7].

3. Продолжим поиск оптимального решения, что не было сделано в [8], [9]. Найдем оптимальное значение параметра $q(t)$, введенного при получении уравнения (16). Перепишем формулу (19) в виде

(20)
$\dot {\Sigma }\, = \,A\Sigma + \Sigma {{A}^{T}} + u(\Sigma - \Sigma {{H}^{T}}{{V}^{{ - 1}}}H\Sigma ),\,\,\,\Sigma ({{t}_{0}})\, = \,{{\Sigma }_{0}}.$

Здесь введено новое скалярное управление $u(t)$ вместо произвольной неотрицательной функции $q(t)$. Сначала будем полагать, что оно заключено между некоторыми двумя положительными постоянными:

(21)
$u(t) = {{q}^{{ - 1}}}(t),\quad {{u}^{ - }} \leqslant u(t) \leqslant {{u}^{ + }},$
а потом найдем решения задачи при ${{u}^{ - }} \to 0$ и ${{u}^{ + }} \to + \infty $. Отыщем значения $u(t)$, доставляющие минимум функционалу (9) для системы (20).

Принцип максимума [6] указывает, что на каждом интервале времени оптимальным может быть лишь постоянное управление $u(t) = {{u}^{ - }}$ или $u(t) = {{u}^{ + }}$, поскольку $u(t)$ входит линейно в правую часть дифференциального уравнения (20) и, тем самым, в соответствующий гамильтониан, максимум которого $u(t)$ должно обеспечить. Следовательно, в общем случае оптимальное управление представляет собой кусочно-постоянную функцию. Найдем решение ${{\Sigma }_{ - }}(t)$ уравнения (20) для управления $u = {{u}^{ - }} \to 0$. Возьмем $u(t) = 0$ в (20) и получим [3]

(22)
${{\Sigma }_{ - }}(t) = \Phi {{\Sigma }_{0}}{{\Phi }^{T}},\quad \dot {\Phi } = A(t)\Phi ,\quad \Phi ({{t}_{0}}) = {{I}_{n}}.$

Заметим, что если A не зависит от времени, то фундаментальная матрица $\Phi (t) = \exp \left( {A(t - {{t}_{0}})} \right)$. При $u = 0$ уравнение (18) примет вид

(23)
${{\dot {\rho }}_{ - }} = A{{\rho }_{ - }},\quad {{\rho }_{ - }}({{t}_{0}}) = x({{t}_{0}}).$

Получаем, что в случае $u = 0$ оптимальное решение представляет собой оценку фазового вектора по уравнению, описывающему его свойства, без какого бы то ни было учета данных наблюдений.

Теперь найдем решение ${{\Sigma }_{ + }}(t)$ уравнения (20) в случае управления $u(t) = {{u}^{ + }} \to + \infty $. Для простоты ограничимся ситуацией, когда ${{\Sigma }_{0}}$ положительно определена. С практической точки зрения это дополнительное условие нельзя назвать существенным, поскольку всегда можно указать достаточно большой невырожденный эллипсоид, за пределами которого рассматриваемая система не может находиться в начальный момент времени. Тогда известно, что ${{\Sigma }_{ + }}(t)$ положительно определена для любого последующего момента времени [1]. В этом случае, обозначив $A{\text{''}}(t) = - {{A}^{T}}(t)$, уравнение (20) можно записать в виде

(24)
$\begin{gathered} \frac{{d\Sigma _{ + }^{{ - 1}}}}{{dt}} = A{\text{''}}\Sigma _{ + }^{{ - 1}} + \Sigma _{ + }^{{ - 1}}{{A}^{{''T}}} + \\ + \;{{u}^{ + }}({{H}^{T}}{{V}^{{ - 1}}}H - \Sigma _{ + }^{{ - 1}}),\quad \Sigma _{ + }^{{ - 1}}({{t}_{0}}) = \Sigma _{0}^{{ - 1}}. \\ \end{gathered} $

Предположим, что матрицы $H(t)$ и $V(t)$ являются кусочно-дифференцируемыми функциями времени, что не накладывает существенных ограничений на технические приложения. На участках, где существуют производные у обеих матриц, будем искать решение уравнения (24) в форме $\Sigma _{ + }^{{ - 1}} = Z(t) + {{H}^{T}}{{V}^{{ - 1}}}H$. Тогда на основании (24) получим

(25)
$\begin{gathered} \dot {Z} = A{\text{''}}(Z + {{H}^{T}}{{V}^{{ - 1}}}H) + \\ + \;(Z + {{H}^{T}}{{V}^{{ - 1}}}H){{A}^{{''T}}} - \frac{{d{{H}^{T}}{{V}^{{ - 1}}}H}}{{dt}} - {{u}^{ + }}Z. \\ \end{gathered} $

В правой части дифференциального уравнения (25) все слагаемые можно считать малыми по сравнению с матрицей ${{u}^{ + }}Z$. Поэтому можно искать Z из уравнения $\dot {Z} = - {{u}^{ + }}Z$. При ${{u}^{ + }} \to + \infty $ решение этого уравнения для любого ограниченного начального условия стремится к нулю. Для искомой матрицы ${{\Sigma }_{ + }}$ при ${{u}^{ + }} \to + \infty $ получаем соотношение

(26)
$\Sigma _{ + }^{{ - 1}} = {{H}^{T}}{{V}^{{ - 1}}}H.$

При этом оценку ${{\rho }_{ + }}(t)$ вектора $x(t)$ следует найти из соотношения

(27)
${{\rho }_{ + }} = \Sigma {}_{ + }{{H}^{T}}{{V}^{{ - 1}}}Hy,$
которое можно получить на основании уравнения (18) способом, аналогичным примененному для получения выражения (26).

Таким образом, в случае ${{u}^{ + }} \to + \infty $ оптимальное решение представляет собой оценку фазового вектора по данным наблюдений, без какого бы то ни было учета свойств объекта.

Итак, оптимальное решение на всем рассматриваемом интервале времени состоит из участков, на каждом из которых используется либо оценка, полученная исключительно по начальным для этого участка данным на основании описывающих объект уравнений, либо оценка, полученная только на основании данных наблюдений. Поиск границ этих участков для каждой конкретной системы требует отдельного исследования и в общем случае представляет собой нетривиальную задачу.

4. В ряде ситуаций можно построить гораздо лучшую оценку, если не ограничиваться соотношениями (10). Можно, в соответствии с [3], вычислить эллипсоид согласно (22) и (23) и найти для некоторого момента времени ${{t}_{0}} \leqslant \tau \leqslant T$ эллипсоид, аппроксимирующий его пересечение с эллипсоидом, полученным по данным наблюдений. Если соответствующая область пересечения мала, то и аппроксимирующий эллипсоид может оказаться малым в смысле любого функционала (9). С другой стороны, указанный подход имеет свои трудности [3].

Список литературы

  1. Ройтенберг Я.Н. Автоматическое управление. М.: Наука, 1992. 576 с.

  2. Schweppe F.C. Recursive state estimation: unknown but bounded errors and system inputs // IEEE Trans. Automat. Control. 1968. V. AC-13. № 1. P. 22–28.

  3. Черноусько Ф.Л. Оценивание фазового состояния динамических систем. М.: Наука, 1988. 320 с.

  4. Athans M., Tse E. A direct derivation of the optimal linear filter using the maximum principle // IEEE Trans. Automat. Control. 1967. V. AC-12. № 6. P. 690–698.

  5. Ovseevich A.I. Limit Behaviour of Attainable and Superattainable Sets / Modeling, Estimation and Control of Systems with Uncertainty: Proceedings of a Conference held in Sopron, Hungary. September, 1990.

  6. Понтрягин Л.С., Болтянский В.Г., Гамкрелидзе Р.В., Мищенко Е.Ф. Математическая теория оптимальных процессов. М.: Наука, 1969. 384 с.

  7. Kalman R.E. New Methods in Wiener Filtering Theory / Proceedings of the 1st Symposium on Engineering Applications of Random Function Theory. N.Y.: Wiley, 1963. P. 270–388.

  8. Шматков А.М. Построение аналога фильтра Калмана для гарантированной оценки состояния динамической системы // Изв. РАН ТиСУ. 2011. № 5. С. 33–40.

  9. Шматков А.М. Сглаживающий фильтр на основе аналога фильтра Калмана для гарантированной оценки состояния динамических систем // ПММ. 2015. Т. 79. Вып. 4. С. 498–508.

Дополнительные материалы отсутствуют.