Автоматика и телемеханика, № 2, 2023
Линейные системы
© 2023 г. М.М. КОГАН, д-р физ.-мат. наук (mkogan@nngasu.ru)
(Нижегородский государственный архитектурно-строительный
университет)
О ДВОЙСТВЕННОСТИ ПО ЛАГРАНЖУ СТОХАСТИЧЕСКИХ
И ДЕТЕРМИНИРОВАННЫХ МИНИМАКСНЫХ
ЗАДАЧ УПРАВЛЕНИЯ И ФИЛЬТРАЦИИ1
Показано, что нормы линейного оператора в детерминированном и сто-
хастическом случаях являются оптимальными значениями двойственных
по Лагранжу задач. Для линейных нестационарных систем на конечном
горизонте принцип двойственности приводит к стохастическим интерпре-
тациям обобщенных H2- и H-норм системы. Рассмотрены стохастиче-
ские минимаксные задачи фильтрации и управления при неизвестных
ковариационных матрицах случайных факторов. Получены уравнения
обобщенных H-субоптимальных регуляторов, фильтров и идентифика-
торов, обеспечивающих компромисс между дисперсией ошибки на конце
интервала наблюдений и суммой дисперсий ошибок на всем интервале.
Ключевые слова: стохастическое минимаксное управление, фильтр Кал-
мана, двойственность по Лагранжу, обобщенное H-оптимальное управ-
ление и фильтрация, обобщенное H2-оптимальное управление, линейные
матричные неравенства.
DOI: 10.31857/S0005231023020022, EDN: OMHKZN
1. Введение
Как известно, существуют две основные концепции в теории управления
при наличии неопределенности: стохастическая, когда неопределенные фак-
торы типа начальных условий, возмущений и помех предполагаются случай-
ными и при этом они наделяются некоторыми вероятностными характери-
стиками такими, например, как математическое ожидание и ковариация, и
детерминистская, когда неопределенные факторы предполагаются детерми-
нированными и принимающими значения в некоторых множествах. В пер-
вом случае цель состоит в оптимизации функционала качества системы в
вероятностном смысле при условии, что вероятностные характеристики или
их границы заданы, а во втором в минимизации максимального значения
1 Работа выполнена при финансовой поддержке Научно-образовательного математиче-
ского центра “Математика технологий будущего” (соглашение № 075-02-2021-1394).
35
функционала на множестве значений неопределенных факторов, удовлетво-
ряющих заданным ограничениям. В рамках обеих концепций разработаны
эффективные методы решения разнообразных задач линейно-квадратичного
оценивания, фильтрации и управления, в том числе задачи с критерием ви-
да H-нормы для детерминированных и стохастических систем (см., напри-
мер, [1-5]). Вместе с тем обе концепции имеют свои недостатки: в стохастиче-
ской парадигме сложно определить вероятностные характеристики неопреде-
ленных факторов, а в детерминистской трудно найти адекватные ограни-
чения для значений неопределенных факторов. Для преодоления этих недо-
статков, а также для расширения круга решаемых задач и интерпретации
результатов, получаемых в одной парадигме, в терминах другой крайне важ-
но выявить взаимосвязь между этими парадигмами.
Надо отметить, что к этой теме обращались неоднократно: связь между ре-
куррентным методом наименьших квадратов и фильтром Калмана является
классическим тому примером [6]. Кроме того, в [7] показано, что стационар-
ный фильтр Калмана является оптимальным не только при случайных по-
мехах типа белого шума, но он также обеспечивает минимум максимального
по времени значения евклидовой нормы ошибки при детерминированных по-
мехах с ограниченной энергией. В широко известной статье [8] J.C. Willems
привел чисто детерминистскую интерпретацию результатов, полученных в
линейно-квадратичной оптимальной стохастической фильтрации и управле-
нии (см. также [9]). А именно, он доказал, что если среди всех детерминиро-
ванных возмущений, при которых может реализоваться наблюдаемый сигнал,
выбрать то, которое имеет наименьшую норму, и подставить это возмущение
в уравнения системы, то в результате получатся уравнения, совпадающие
с уравнениями оптимального фильтра или регулятора при случайных, нор-
мально распределенных возмущениях.
В данной статье показано, что задача максимизации квадрата евклидовой
нормы выхода линейного оператора (преобразования), который отображает
детерминированные векторы, удовлетворяющие эллипсоидальному ограниче-
нию, и задача максимизации дисперсии выхода этого оператора, отображаю-
щего случайные векторы, удовлетворяющие усредненному эллипсоидально-
му ограничению, являются двойственными по Лагранжу. Для операторов,
порождаемых линейными динамическими системами, это приводит к двой-
ственности стохастических и детерминированных минимаксных задач оцени-
вания и управления с критериями вида обобщенных H2- и H-норм. Приме-
нение принципа двойственности позволяет сформулировать и решить новые
задачи оптимального и робастного управления и фильтрации в стохастиче-
ской постановке при неизвестных ковариационных матрицах случайных фак-
торов. В работе получены уравнения обобщенных H-субоптимальных регу-
ляторов, фильтров и идентификаторов, обеспечивающих компромисс между
дисперсией ошибки на конце интервала наблюдений и суммой дисперсий оши-
бок на всем интервале.
36
2. О двойственности по Лагранжу стохастической
и детерминистской парадигм
Пусть два вектора ξ ∈ Rnξ и η ∈ Rnη , которые будем называть входом и
выходом, связаны линейной зависимостью
(2.1)
η = Ψξ,
в которой Ψ детерминированная (nη × nξ)-матрица. Введем обозначения
|a|2R = aTR-1a,
∥b∥2G[t
=
|b(i)|2G(i),
0,t]
i=t0
где R = RT > 0 и G(t) = GT > 0 весовые матрицы. Определим обобщенную
норму оператора Ψ с весовой матрицей K = KT > 0 как
2
|η|
ξTΨTΨξ
(2.2)
∥Ψ∥2K = sup
= sup
= λmax(ΨKΨT
).
ξ=0 |ξ|K
ξ=0 ξTK-1ξ
Эта индуцированная обобщенная норма оператора Ψ, которую будем также
называть уровнем гашения детерминированных возмущений, равна макси-
мальному значению евклидовой нормы выхода η при всех входах ξ, принад-
{
}
лежащих эллипсоиду Eξ(K) =
ξ:ξTK-1ξ≤1
, и может быть найдена как
решение следующей оптимизационной задачи.
Задача D.
(2.3)
γ2d(Ψ) = max |η|2 : η = Ψξ, ξTK-1
ξ ≤ 1.
ξ
Если ξ = ξs случайный вектор с нулевым математическим ожиданием и
ковариационной матрицей EξsξTs = Kξ, то ковариационная матрица выхода
равна Kη = ΨKξΨT, а математическое ожидание квадрата евклидовой нормы
выхода равно следу этой матрицы, т.е. E|η|2 = tr (ΨKξΨT). При неизвестной
ковариационной матрице вектора ξ определим уровень гашения случайных
возмущений оператора Ψ как квадратный корень из максимального значения
отношения дисперсии выхода к математическому ожиданию квадратичной
формы с матрицей K-1 входа при всех ненулевых ковариационных матрицах
входа Kξ [10], т.е.
2
E|η|
tr ΨKξΨT
γ2s(Ψ) = sup
= sup
Kξ≥0 E|ξ|K
Kξ≥0 tr K-1Kξ
Эта величина, представляющая собой индуцированную норму операто-
ра Ψ, когда ξ и η случайные векторы с нормами |ξ|s = (EξTK-1ξ)1/2 и
|η|s = (E|η|2)1/2, может быть найдена как решение следующей оптимизаци-
онной задачи.
Задача S.
(2.4)
γ2s(Ψ) = max
tr ΨKξΨT : η = Ψξ, tr K-1Kξ
≤ 1.
Kξ≥0
37
Теорема 2.1. Задачи S и D являются двойственными, и уровни гаше-
ния случайных и детерминированных возмущений с весовой матрицей K
оператора Ψ совпадают со спектральным радиусом ковариационной мат-
рицы выхода при ковариационной матрице входа, равной весовой матрице,
т.е.
γ2s(Ψ) = γ2d(Ψ) = λmax(ΨKΨT).
Доказательство теоремы 2.1. Запишем функцию Лагранжа для за-
дачи S и выразим оптимальное значение двойственной ей функции как
[
]
[
]
min
max
tr ΨKξΨT + λ(1 - tr K-1Kξ)
= min
max
λ+trKξTΨ-λK-1) .
λ≥0
Kξ≥0
λ≥0
Kξ≥0
Для того, чтобы эта величина была конечной, должно выполняться неравен-
ство ΨTΨ - λK-1 ≤ 0 и тогда максимум достигается при Kξ = 0. При этом
оптимальное значение двойственной задачи совпадает с (2.2). Так как функ-
ция является выпуклой и имеется внутренняя точка, удовлетворяющая огра-
ничению, то оптимальные значения прямой и двойственной задач совпада-
ют [11]. Теорема доказана.
К этому стоит добавить, что образ оператора Ψ или, другими словами,
множество достижимости вектора η в (2.1) при всех детерминированных век-
торах ξ, принадлежащих эллипсоиду Eξ(K), может характеризоваться в тер-
минах ковариационной матрицы случайного вектора ξ, как сформулировано
в следующей теореме.
Теорема 2.2. Множество достижимости вектора η в (2.1), когда де-
терминированный вход ξ принимает значения в эллипсоиде Eξ(K) и матри-
ца Kη = ΨKΨT невырожденная, является эллипсоид Eη(Kη) с матрицей Kη,
совпадающей с ковариационной матрицей случайного вектора η, когда кова-
риационная матрица случайного вектора ξ равна K.
Доказательство теоремы 2.2. Найдем опорную функцию множе-
ства достижимости η в (2.1)
̺(x) = sup xTη,
ξ∈Eξ(K)
которая в случае вектора x единичной длины является верхней гранью про-
екций x на это множество. Для полученной задачи на условный экстремум
запишем функцию Лагранжа
L(ξ, λ) = xTΨξ + λ(1 - ξTK-1ξ).
Приравнивая нулю градиент этой функции по ξ, найдем ξ = (2λ)-1Tx
и, подставляя это соотношение в ограничение, получим 2λ = (xTΨKΨTx)1/2.
Окончательно имеем ̺(x) = (xTΨKΨTx)1/2, что согласно [12] отвечает опор-
ной функции эллипсоида Eη(ΨKΨT). Теорема доказана.
38
Приведенные выше результаты остаются в силе, если случайный вектор ξ
имеет ненулевое математическое ожидание Eξ = ξ. В этом случае уровень
гашения случайных возмущений определяется как
2
E|η - Ψξ|
tr ΨKξΨT
γ2s(Ψ) = sup
= sup
,
Kξ≥0 E|ξ - ξ|K
Kξ≥0 tr K-1Kξ
где Kξ = E(ξ - ξ)(ξ - ξ)T, а уровень гашения детерминированных возму-
щений определяется как
2
|η - Ψξ|
(ξ - ξ)TΨTΨ(ξ - ξ)
γ2d(Ψ) = sup
= sup
= λmax(ΨKΨT).
|ξ - ξ|2
ξ=ξ
K
ξ=ξ (ξ-ξ)TK-1(ξ-ξ)
Множеством достижимости вектора η в этом случае будет эллипсоид с цен-
тром в точке η = Ψξ и матрицей Kη = ΨKΨT.
Далее применим эти результаты к линейным операторам, которые порож-
даются линейными динамическими системами.
3. Максимальное уклонение и обобщенная H2-норма
Определим линейный оператор Ψ2(t), который отображает вход
ξ(t) = col (x0, v(t0), . . . , v(t - 1)) в выход η = z(t) линейной динамической
системы, описываемой уравнениями
x(t + 1) = A(t)x(t) + B(t)v(t), x(t0) = x0,
(3.1)
z(t) = C(t)x(t), t ∈ [t0, tf ].
Так как решение этой системы представимо в виде
(3.2)
z(t) = C(t)Φ(t, t0)x(t0) +
F (t, i + 1)B(i)v(i),
i=t0
где F (t, i) = C(t)Φ(t, i + 1)B(i), i = t0, . . . , t - 1 матричная импульсная пе-
реходная функция системы, Φ(t, t0) переходная матрица системы, удовле-
творяющая уравнению
(3.3)
Φ(t + 1, t0) = A(t)Φ(t, t0), t ≥ t0, Φ(t0, t0
)=I,
то
(3.4)
Ψ2(t) = (C(t)Φ(t,t0) F(t,t0
) ... C(t)B(t - 1)).
При выборе весовой матрицы блочно-диагонального вида
K(t) = diag (R, G(t0), . . . , G(t - 1)),
39
где R = RT > 0 и G(i) = GT(i) > 0, i = 0, . . . , t - 1, обобщенная норма этого
оператора
2
2(t)ξ(t)|
|z(t)|2
∥Ψ2(t)∥2K(t) = sup
=
sup
ξ(t)=0
|ξ(t)|2
K(t)
x0, v(τ),τ∈[t0,t-1] |x0|R + ∥v∥G[t0,t]
представляет собой так называемое максимальное уклонение выхода систе-
мы в момент времени t при произвольных детерминированных начальном
состоянии и возмущении, удовлетворяющих ограничению
(3.5)
|ξ(t)|2K(t) = |x0|2R + ∥v∥2G[t
≤ 1,
0,t]
которое будем называть эллипсоидальным. Кроме того, напомним, что обоб-
щенная H2-норма системы (3.1) на конечном горизонте [t0, tf ] c весовыми
матрицами R и G(t) определяется как
2
max |z(τ)|
τ ∈[t0,t]
∥H∥2g2 =
sup
,
x0, v(t),t∈[t0,tf -1] |x0|R + ∥v∥G
[t0,t]
т.е. как максимальное по времени из максимальных уклонений выхода
[13, 14].
Определим уровень гашения случайных возмущений в системе (3.1) в мо-
мент времени t как уровень гашения случайных возмущений оператора Ψ2(t),
т.е.
2
E|z(t)|
γ2s2(t)) = sup
(
),
Kξ(t)≥0 E
|x0|2R + ∥v∥2
G [t0,t]
где случайные начальное состояние и возмущения не являются независимы-
ми, а в общем случае представляют собой цветной шум.
Согласно теореме 2.1 уровни гашения случайных и детерминированных
возмущений равны λmax[Kz(t)], где Kz(t) ковариационная матрица выхода
системы, когда ее вход ξ(t) = col (x0, v(t0), . . . , v(t - 1)) имеет ковариацион-
ную матрицу K(t) = diag (R, G(t0), . . . , G(t - 1)), т.е. когда ее начальное со-
стояние и возмущения независимы и имеют ковариационные матрицы R и
G(t) соответственно. Из уравнений системы получим Kz(t) = C(t)P (t)CT(t),
где P (t) решение уравнения
(3.6)
P (t + 1) = A(t)P (t)AT(t) + B(t)G(t)BT
(t)
с начальным условием P (t0) = R. Таким образом, верно следующее утверж-
дение.
40
Теорема 3.1. В системе (3.1) уровень гашения случайных возмущений
совпадает с максимальным уклонением выхода, т.е.
2
E|z(t)|
sup
(
) =
Kξ(t)≥0 E
|x0|2R + ∥v∥2
G [t0,t]
(3.7)
2
|z(t)|
=
sup
= λmax[C(t)P(t)CT(t)],
x0, v(τ),τ∈[t0,t-1] |x0|R
+ ∥v∥2
G [t0,t]
где P (t) решение уравнения (3.6).
Следствие 3.1. Обобщенная H2-норма системы (3.1) характеризуется
как
2
E|z(t)|
∥H∥2g2 = max sup
(
) = max λmax[C(t)P(t)CT(t)].
t∈[t0,tf ]
t∈[t0,tf ]Kξ(t)≥0 E
|x0|2R + ∥v∥2G[t0,t]
Замечание 1. Из (3.6), (3.7) следует, что уровень гашения случайных
возмущений в момент времени t может быть найден как решение следующей
задачи полуопределенного программирования:
min λ : Y (i + 1) - A(i)Y (i)AT(i) - B(i)G(i)BT(i) ≥ 0, i = t0, . . . , t - 1,
(3.8)
Y (t0) = R, C(t)Y (t)CT(t) ≤ λI.
а обобщенная H2-норма как минимальное λ > 0, при котором разреши-
мы неравенства (3.8) при t = tf и неравенства C(i)Y (i)CT(i) ≤ λI для i =
=t0,... ,tf .
4. Обобщенная H-норма
Определим линейный оператор Ψ, для которого в силу системы
x(t + 1) = A(t)x(t) + B(t)v(t), x(t0) = x0,
(4.1)
z(t) = C(t)x(t) + D(t)v(t), t ∈ [t0, tf ]
выполняется η = Ψξ, где
η = col(z(t0),...,z(tf - 1),S1/2x(tf)), ξ = col(x(t0),v(t0),...,v(tf - 1)),
S=ST ≥0
заданная матрица. Учитывая (3.2) и (3.3), найдем
C(t0)
D(t0)
·
0
C(t0 + 1)Φ(t0 + 1, t0)
F (t0 + 1, t0)
·
0
Ψ =
·
·
·
·
.
 C(tf-1)Φ(tf-1,t0)
F (tf - 1, t0)
·
D(tf - 1)
S1/2Φ(tf,t0)
S1/2Φ(tf,t0 + 1)B(t0) · S1/2B(tf - 1)
41
При выборе весовой матрицы K = diag (R, G(t0), . . . , G(tf - 1)) обобщенная
норма этого оператора совпадает с ее обобщенной H-нормой, т.е.
2
ξ|
∥z∥2[t0,tf ]+x(tf)TSx(tf)
∥Ψ2K = sup
=
sup
= ∥H∥2g∞,
|ξ|2
|x(t0)|2R + ∥v∥2
ξ=0
K
x(t0), v(τ),τ∈[t0,tf -1]
G [t0,tf ]
где S = ST ≥ 0 заданная весовая матрица. Таким образом, уровень гаше-
ния детерминированных возмущений системы (4.1) находится как решение
следующей задачи.
Задача D. В предположении, что начальное и внешнее возмущения
в системе (4.1) образуют последовательность детерминированных векторов
ξ = col(x(t0),v(t0),...,v(tf - 1)) найти
tf-1
γ2d) =
max
|z(t)|2 + xT(tf )Sx(tf ) : |x0|2R +
x0, v(τ),τ∈[t0,tf -1]
t=t0
(4.2)
tf-1
+
|v(t)|2G(t) ≤ 1.
t=t0
В свою очередь определим уровень гашения случайных возмущений
[
]
+ xT(tf)Sx(tf)
E ∥z∥2[t0,tf
]
(4.3)
γ2s) = sup
[
]
,
Kξ≥0
E |x(t0)|2R + ∥v∥2
G[t0,tf ]
где Kξ ковариационная матрица вектора ξ = col (x(t0), v(t0), . . . , v(tf - 1)).
Согласно теореме 2.1 уровни гашения случайных и детерминированных воз-
мущений равны между собой, т.е. γ2s) = ∥H∥2g∞.
Покажем, что уровень гашения случайных возмущений может быть най-
ден как решение задачи полуопределенного программирования, в которой
переменными являются определенные ковариационные матрицы. Обозначая
)T
( x(t))( x(t)
(4.4)
E
= W(t), M = (I
0), H = (0 I)
v(t)
v(t)
и опуская аргумент t там, где это не вызывает сомнений, из (4.1) получим,
что матрицы W (t) удовлетворяют следующим уравнениям
(4.5)
MW(t + 1)MT = (A B)W(t)(A B)T, t = t0,...,tf
− 1.
Выразим математические ожидания в (4.3) в терминах матриц W (t) и сфор-
мулируем следующую задачу.
42
Задача S.
tf-1
γ2s) =
max
tr (C D)W (t)(C D)T + tr SMW (tf )MT :
W (t)≥0, t∈[t0,tf ]
t=t0
(4.6)
tf-1
tr R-1MW (t0)MT +
tr G-1HW (t)HT ≤ 1,
t=t0
где матрицы W (t) удовлетворяют уравнениям (4.5).
Имеет место следующее утверждение, доказательство которого приведено
в Приложении.
Теорема 4.1. Задачи S и D являются двойственными по Лагранжу
и их оптимальные значения совпадают с обобщенной H-нормой системы
(4.1), т.е.
tf-1
tr (C D)W (t)(C D)T + tr SMW (tf )MT
∥H∥2g∞
= supt=t0
,
t
W (t)≥0 t∈[t0,tf ]
tr R-1MW (t0)MT +
tr G-1HW (t)HT
t=t0
которая вычисляется как
∥H∥2g∞ = min λ :
λ≥0,X(t)
 ATX(t + 1)A - X(t)
 BTX(t + 1)A BTX(t + 1)B - G-1
 ≤ 0,
(4.7)
C
D
-λI
(
)
X(tf)
X(t0) = R-1,
≥ 0, t = t0, . . . , tf - 1.
S1/2
λI
Теперь перейдем к задачам фильтрации и управления.
5. Фильтрация
5.1. Обобщенная H2-оптимальная фильтрация
Рассмотрим задачу фильтрации для линейного дискретного объекта, за-
данного разностными уравнениями:
x(t + 1) = A(t)x(t) + B(t)v(t), x(0) = x0,
(5.1)
y(t) = C(t)x(t) + D(t)v(t),
z(t) = Cz(t)x(t), t = t0, . . . , tf ,
в которых x(t) ∈ Rnx состояние объекта, y(t) ∈ Rny измеряемый выход,
z(t) ∈ Rnz целевой выход, x0 и v(t) ∈ Rnv начальное состояние и внешнее
43
возмущение, A(t), B(t), C(t), D(t) заданные матричные функции соответ-
ствующих размерностей. Для оценивания неизмеряемого состояния объекта
по измерениям выхода определим фильтр, описываемый уравнением
xf(t + 1) = A(t)xf (t) + Θ(t)[y(t) - C(t)xf(t)], xf(0) = 0,
(5.2)
zf (t) = Cz(t)xf (t),
в котором xf (t) ∈ Rnx состояние фильтра, zf (t) ∈ Rnz оценка целевого
выхода, Θ(t) матрица параметров фильтра. Обозначая ошибки оценки со-
стояния e(t) = x(t) - xf (t) и оценки выхода ez(t) = z(t) - zf (t), из (5.1) и (5.2)
получим уравнения ошибок фильтрации
e(t + 1) = Ac(t)e(t) + Bc(t)v(t), e(0) = x0,
(5.3)
ez(t) = Cz(t)e(t),
где Ac(t) = A(t) - Θ(t)C(t), Bc(t) = B(t) - Θ(t)D(t). Допустим, что ковариа-
ционная матрица Kξ(t) случайного вектора начального состояния и возму-
щений ξ(t) = col (x0, v(t0), . . . , v(t - 1)) неизвестна. Найдем параметры Θ(t)
фильтра (5.2), при которых уровень гашения случайных возмущений с весо-
выми матрицами R > 0 и G(i) > 0, i = 1, . . . , t - 1, т.е.
2
E|ez (t)|
(5.4)
Jst-1) = supt
(
),
0
Kξ(t)≥0 E
|x0|2R + ∥v∥2
G [t0,t]
где Θji обозначает набор Θ(i), . . . , Θ(j), будет минимальным.
Согласно теореме 3.1 такой фильтр обеспечивает минимум максимальному
уклонению ошибки при детерминированных факторах, т.е.
2
|ez (t)|
Jdt-1) =
sup
,
t
0
x0, v(τ),τ∈[t0,t-1] |x0|R + ∥v∥G
[t0,t]
и совпадает с фильтром, который минимизирует спектральный радиус ко-
вариационной матрицы выхода ez(t) уравнения (5.3) при условии, что на-
чальное состояние и возмущения образуют последовательность случайных
независимых векторов с ковариационными матрицами R и G(t). Это зна-
чит, что его параметры находятся из условия minΘ λmax(Kz (Θ)), где Kz(Θ) =
= Cz(t)P(t)CTz (t) и P(t) удовлетворяет уравнению
P (t + 1) = [A(t) - Θ(t)C(t)]P (t)[A(t) - Θ(t)C(t)]T +
+ [B(t) - Θ(t)D(t)]G(t)[B(t) - Θ(t)D(t)]T
с начальным условием P (t0) = R. Ради упрощения формул предположим, что
возмущения в объекте и в измерении выхода между собой независимы и что
матрицы D(t) полного ранга, т.е.
(
)
(
)T
)
B(t)
B(t)
( GB(t)
0
(5.5)
G(t)
=
,
GD
(t) > 0.
D(t)
D(t)
0
GD(t)
44
Выделяя в правой части последнего уравнения полный квадрат по Θ(t), най-
дем
[
]-1
(5.6)
Θ(t) = A(t)P2(t)CT(t)
C(t)P2(t)CT(t) + GD(t)
,
где матрица P2(t) удовлетворяет уравнению
P2(t + 1) = A(t)P2(t)AT(t) -
[
]-1
- A(t)P2(t)CT(t)
C(t)P2(t)CT + GD(t)
C(t)P2(t)AT(t) + GB(t)
или, применяя известную формулу обращения матриц, (см., например,
[15, c. 254]), уравнению
[
]-1
(5.7)
P2(t + 1) = A(t)
P-12(t) + CT(t)G-1D(t)C(t)
AT(t) + GB
(t)
с начальным условием P2(t0) = R.
Заметим, что найденный фильтр совпадает с фильтром Калмана [2] для
оценки состояния системы (5.1) при случайных независимых начальном со-
стоянии и возмущении с ковариационными матрицами, равными весовым
матрицам R и G(t). Другими словами, фильтр Калмана, построенный для
системы со случайными независимыми начальным состоянием и возмуще-
ниями с заданными ковариационными матрицами R и G(t), в дополнении
к тому, что обеспечивает минимум максимальному уклонению ошибки при
детерминированных факторах, удовлетворяющих ограничению
(5.8)
|x0|2R + ∥v∥2G[t
≤ 1,
0,t]
также доставляет минимум уровню гашения случайных возмущений (5.4) при
соответствующих весовых матрицах R и G(t). Кроме того, согласно теоре-
ме 2.2 множество достижимости ошибки ez(t) при условии (5.8) составляет
эллипсоид Ez[Cz(t)P2(t)CTz(t)] и, следовательно, неизвестный вектор z(t) на-
ходится в таком же эллипсоиде с центром в zf (t).
Параметры Θg2(t) обобщенного H2-оптимального фильтра, при котором
минимизируется максимальная из дисперсий ошибок оценок на всем интер-
вале, т.е.
2
E|ez (t)|
Jg2tf -1t
) = max sup
(
),
0
t∈[t0,tf ]Kξ(t)≥0 E
|x0|2R + ∥v∥2
G [t0,t]
находятся стандартным образом с помощью линейных матричных нера-
венств (3.8) (см., например, [15]), в которых нужно A заменить на A - Θ(t)C,
B на B - Θ(t)D и обозначить X(t + 1)Θ(t) = Z(t). Тогда параметры филь-
тра вычисляются как Θg2(t) = X-1∗(t + 1)Z(t), где звездочками обозначены
решения этих неравенств.
45
5.2. Обобщенная H-оптимальная фильтрация
Рассмотрим теперь обобщенную H-оптимальную фильтрацию в стоха-
стической постановке, когда ковариационная матрица Kξ вектора начального
состояния и возмущений ξ = col (x(t0), v(t0), . . . , v(tf - 1)) в (5.1) неизвестна
и требуется найти параметры фильтра (5.2), при которых на траекториях
системы (5.3) минимизируется функционал
[
]
+ eTx(tf)Sex(tf)
E ∥ez2[t0,tf
]
Jg∞tf -1) = supt
[
]
0
Kξ≥0
E |x(t0)|2R + ∥v∥2
G[t0,tf 1]
Теорема 5.1. Обобщенная H-норма системы (5.3), описывающей ди-
намику ошибки оценки состояния (5.1), меньше λ, т.е. Jg∞ < λ, если
фильтр (5.2) имеет параметры
[
(5.9) Θ(t) = A(t)
P-1∞(t) + CT(t)G-1D(t)C(t) -
]-1
- λ-1CTz (t)Cz(t)
CT(t)G-1D(t),
где
[
(5.10) P(t + 1) = A(t)
P-1∞(t) + CT(t)G-1D(t)C(t) -
]-1
- λ-1CTz (t)Cz(t)
AT(t) + GB(t),
P(t0) = R, и для всех t выполнено Cz(t)P(t)CTz(t) < λI и S1/2P(tf)S1/2 <
< λI.
Уравнения (5.9) и (5.10) определяют так называемые центральные обоб-
щенные H-субоптимальные решения. Эти уравнения приведены в компакт-
ной форме и могут быть записаны в виде, не содержащем обратных мат-
риц P-1∞(t), если применить формулу обращения матриц. Параметры обоб-
щенного H-субоптимального фильтра, при котором Jg∞ < λ, в том числе и
с минимальным λ, могут быть также получены стандартным образом, решая
линейные матричные неравенства (4.7).
Заметим еще, сравнивая (5.10) и (5.7), что при λ → ∞ имеем P(t) →
→ P2(t). Переходя в (5.9) и (5.10) к пределу при λ → ∞ и применяя формулу
обращения матриц, нетрудно убедиться в том, что в пределе Θ(t) совпадает
с Θ(t), заданной в (5.6), а обобщенный H-субоптимальный фильтр пере-
ходит в фильтр Калмана, построенный для системы (5.1), в которой незави-
симые начальное состояние и возмущения имеют ковариационные матрицы
R и G(t) соответственно. Задавая 0 < λ < ∞, можно добиться компромисса
между дисперсией ошибки оценки состояния в определенный момент времени
и суммой дисперсий ошибок оценок целевого выхода на всем предшествую-
щем интервале времени.
46
5.3. Оптимальное оценивание параметров линейной регрессии
В качестве приложения рассмотрим задачу оптимального оценивания
неизвестных параметров линейной регрессии
(5.11)
χ(t) = Φ(t)ζ0 + v(t), t = t0, . . . , tf ,
где χ(t) вектор измерений, Φ(t) матрица регрессоров, ζ0 вектор неиз-
вестных параметров, v(t) вектор помех измерений. Представим ее как за-
дачу построения оптимального наблюдателя состояния системы
(5.12)
ζ(t + 1) = ζ(t), ζ(t0) = ζ0
вида
ζ(t + 1) =ζ(t) + Θ(t)[χ(t) - Φ(t)ζ(t)],
ζ(t0) = ζ.
При этом ошибкаζ(i) = ζ0 -ζ(i) удовлетворяет уравнению
ζ(i + 1) = [I - Θ(i)Φ(i)]ζ(i) - Θ(i)v(i),
ζ(t0) = ζ0 - ζ, i = t0, . . . , t - 1.
Нетрудно проверить, что при неизвестной ковариационной матрице вектора,
составленного из начальной ошибки ζ0 - ζ и помех в измерениях на всем
интервале, матрица параметров оптимального фильтра (5.2), (5.6), обеспечи-
вающего для уравнения ошибки минимум уровня гашения случайных возму-
щений в момент времени t, равна Θ(t) = P2(t)Φ(t)[Φ(t)P2(t)ΦT(t) + G(t)]-1.
Оптимальные оценки тогда определяются рекуррентными уравнениями
ζ(t + 1) =ζ(t) + P2(t + 1)ΦT(t)G-1(t)[χ(t) - Φ(t)ζ(t)],
ζ(t0) = ζ,
(5.13)
P-12(t + 1) = P-12(t) + ΦT(t)G-1(t)Φ(t), P2(t0) = R.
Как хорошо известно, эти уравнения описывают рекуррентный алгоритм ме-
тода наименьших взвешенных квадратов, а также фильтр Калмана для оцен-
ки состояния системы (5.12) при ковариациях Eζ0ζT0 = R и Ev(t)vT(t) = G(t),
и оценка ζ(t) минимизирует критерий
∑(
)T
(
)
Jt(ζ) = (ζ - ζ)TR-1(ζ - ζ) +
χ(i) - Φ(i)ζ
G-1(i)
χ(i) - Φ(i)ζ
i=0
Таким образом, метод наименьших взвешенных квадратов определяет оцен-
ку, которая минимизирует уровень гашения случайных возмущений при соот-
ветствующих весовых матрицах и которая согласно принципу двойственности
минимизирует максимальное уклонение ошибки при неизвестных детермини-
рованных параметрах и помехах, удовлетворяющих ограничению
(5.14)
0 - ζ|2R + ∥v∥2G[t
≤ 1, t ∈ [t0, tf
].
0,t]
47
И, наконец, построим обобщенный H-субоптимальный фильтр для оцен-
ки неизвестных параметров в линейной регрессии (5.11), при котором сумма
квадратов ошибок на всем рассматриваемом интервале времени не превы-
шает с множителем λ взвешенную сумму квадратов начального отклонения
оценки и помех измерений. В соответствии с (5.9), (5.10) параметры этого
фильтра будут определяться как
[
]-1
Θ(t) =
P(t) + ΦT(t)G-1(t)Φ(t) - λ-1I
ΦT(t)G-1(t),
а сам фильтр при условии P(t) < λI и S1/2P(tf )S1/2 < λI определяется
рекуррентными уравнениями
ζ(t + 1) =ζ(t) + P(t + 1)ΦT(t)G-1(t)[χ(t) - Φ(t)ζ(t)],
ζ(t0) = ζ,
(5.15)
P-1∞(t + 1) = P-1∞(t) + ΦT(t)G-1(t)Φ(t) - λ-1I, P(t0) = R.
При λ → ∞ уравнения обобщенного H-оптимального фильтра перехо-
дят в рекуррентные уравнения метода наименьших взвешенных квадратов.
За счет выбора подходящего значения λ здесь также можно обеспечить ком-
промисс между дисперсией ошибки в конце интервала и суммой дисперсий
ошибок на всем интервале.
6. Управление
Рассмотрим задачу управления для линейного дискретного объекта, за-
данного разностными уравнениями
x(t + 1) = A(t)x(t) + Bu(t)u(t) + B(t)v(t), x(0) = x0,
(6.1)
z(t) = Cz(t)x(t) + Dz(t)u(t), t = t0, . . . , tf .
Допустим, что начальное состояние и внешние возмущения представляют
собой случайный вектор ξ(t) = col (x0, v(t0), . . . , v(t - 1)) с нулевым матема-
тическим ожиданием и неизвестной ковариационной матрицей Kξ(t) и цель
управления вида u(t) = Θ(t)x(t) состоит в минимизации функционала
2
E|z(t)|
Jst-1) = supt
(
).
0
Kξ(t)≥0 E
|x0|2R + ∥v∥2
G [t0,t]
Согласно теореме 3.1 такое управление обеспечивает минимум максимально-
му уклонению выхода при детерминированных факторах, т.е.
2
|z(t)|
Jdt-1) =
sup
,
t
0
x0, v(τ),τ∈[t0,t-1] |x0|R + ∥v∥G
[t0,t]
и совпадает с управлением, которое минимизирует спектральный радиус ко-
вариационной матрицы выхода системы (6.1) в момент времени t при усло-
вии, что начальное состояние и возмущения образуют последовательность
48
случайных независимых векторов с ковариационными матрицами R и G(i),
i = t0,...,t - 1. Параметры такого закона управления могут быть найде-
ны, решая задачу полуопределенного программирования при ограничениях,
определяемых линейными матричными неравенствами, получаемыми стан-
дартным образом из (3.8). Заметим, что задачи, в которых цель управления
формулировалась в терминах ковариационной матрицы выхода в стационар-
ном режиме на бесконечном горизонте, рассматривались в [16].
Пусть теперь начальное состояние и возмущения на всем интервале [t0, tf ]
образуют случайный вектор ξ = col (x0, v(t0), . . . , v(tf - 1)) с нулевым мате-
матическим ожиданием и неизвестной ковариационной матрицей Kξ. Цель
управления вида u(t) = Θ(t)x(t) состоит в минимизации суммарной “энергии”
выхода на всем интервале с учетом конечного состояния при условии ограни-
ченности суммарной “энергии” начального состояния и внешнего возмущения
на всем интервале. При этом “энергия” измеряется математическим ожида-
нием квадратичной формы соответствующего вектора с некоторой заданной
весовой матрицей. В соответствии с этим оптимизируемый функционал имеет
вид
[
]
+ xT(tf)Sx(tf)
E ∥z∥2[t0,tf
]
(6.2)
Jstf -1) = supt
[
]
,
0
Kξ≥0
E |x0|2R + ∥v∥2
G[t0,tf ]
где S = ST ≥ 0, R = RT > 0 и G(t) = GT(t) > 0 заданные весовые матрицы.
Заметим, что в классической задаче линейно-квадратического управления в
стохастической постановке предполагается, что последовательность векторов
начального состояния и возмущений образует последовательность независи-
мых случайных векторов с заданными ковариационными матрицами.
Согласно теореме 4.1 поставленная задача двойственна задаче управле-
ния объектом (6.1), в котором начальное состояние и внешние возмущения
образуют произвольную детерминированную последовательность векторов,
а функционал имеет вид обобщенной H-нормы с соответствующими весо-
выми матрицами
+ xT(tf)Sx(tf)
∥z∥2[t0,tf ]
(6.3)
Jdtf -1) =
sup
t
0
x0,v(τ),τ∈[t0,tf -1]
|x0|2R + ∥v∥2
G[t0,tf ]
Параметры искомого закона управления находятся на основе решения зада-
чи полуопределенного программирования, получаемой стандартным образом
из (4.7).
7. Заключение
Установлен принцип двойственности для линейных операторов в детер-
минированном и стохастическом случаях. Этот результат оказывается по-
лезным, так как связывает между собой стохастическую и детерминистскую
49
парадигмы в задачах управления и фильтрации. В частности, если детерми-
нированные начальное состояние и возмущение в линейной нестационарной
системе на конечном горизонте удовлетворяют эллипсоидальному ограниче-
нию с заданными весовыми матрицами, то максимальное по времени из мак-
симальных уклонений выхода, т.е. обобщенная H2-норма системы, и макси-
мальное значение интегрального квадратичного функционала, т.е. обобщен-
ная H-норма системы, совпадают соответственно с максимальным по време-
ни из максимальных значений дисперсий выхода и с максимальным значени-
ем усредненного интегрального квадратичного функционала при случайных
начальном состоянии и возмущении с неизвестными ковариационными мат-
рицами, удовлетворяющими усредненному эллипсоидальному ограничению.
Обе эти нормы также характеризуются как спектральные нормы ковариа-
ционных матриц выходов линейных операторов при случайных независимых
начальном состоянии и возмущениях в системе, ковариационные матрицы ко-
торых совпадают с соответствующими весовыми матрицами эллипсоидально-
го ограничения.
В статье для линейных динамических систем сформулированы новые ми-
нимаксные задачи в стохастической постановке при неизвестных ковариаци-
онных матрицах случайных факторов и показано, что их решения совпада-
ют с решениями двойственных детерминированных минимаксных задач. Так,
минимаксное стохастическое управление при неизвестной совместной кова-
риационной матрице начального состояния и возмущений, имеющей огра-
ниченный след, совпадает с детерминированным обобщенным H-оптималь-
ным управлением. Оптимальный фильтр, минимизирующий уровень гашения
случайных начального состояния и возмущений с неизвестной совместной ко-
вариационной матрицей, совпадает с оптимальным фильтром, минимизирую-
щим максимальное уклонение ошибки фильтрации при детерминированных
начальном состоянии и возмущениях, удовлетворяющих эллипсоидальному
ограничению с заданными весовыми матрицами. Этот фильтр оказывается
фильтром Калмана, построенным для данной системы при случайных неза-
висимых начальном состоянии и возмущениях, ковариационные матрицы ко-
торых равны соответствующим весовым матрицам эллипсоидального огра-
ничения.
ПРИЛОЖЕНИЕ
Доказательство теоремы 4.1. Запишем функцию Лагранжа для
задачи S и найдем двойственную ей функцию:
tf-1
min
max
tr (C(t) D(t))W (t)(C(t) D(t))T + tr SMW (tf )MT -
λ≥0,X(t)
W (t)≥0
t=t0
tf-1
− λtrR-1MW(t0)MT + trG-1(t)HW(t)HT - 1 +
t=t0
50
tf-1
[
]
+
tr (A(t) B(t))W (t)(A(t) B(t))T - MW (t + 1)MT X(t + 1) =
t=t0
tf-1
[
= min
max
λ + trW(t) (C(t) D(t))T(C(t) D(t)) +
λ≥0,X(t)
W (t)≥0
t=t0
]
+ (A(t) B(t))TX(t + 1)(A(t) B(t)) - MTX(t)M - λHTG-1(t)H +
+ tr W (tf )MT[S - X(tf )]M
,
где X(t0) = λR-1. Для того, чтобы двойственная функция была конечной,
должны выполняться следующие неравенства:
(C(t) D(t))T(C(t) D(t)) + (A(t) B(t))TX(t + 1)(A(t) B(t)) -
(Π.1)
- MTX(t)M - λHTG-1(t)H ≤ 0, t = t0,... ,tf - 1, S - X(tf) ≤ 0,
поскольку в противном случае W (t) может быть выбрана так, что соответ-
ствующее слагаемое становится неограниченным. Таким образом, неравен-
ства (Π.1) должны быть выполнены, но тогда минимум в минимаксной за-
даче достигается при W (t) = 0, t = t0, . . . , tf и мы приходим к двойственной
задаче: найти min λ при ограничениях (Π.1), которые с учетом введенных
обозначений и замены X(t) на λX(t) записываются в виде неравенств (4.7).
Так как функция является выпуклой и имеется внутренняя точка, удовлетво-
ряющая ограничениям, то значения прямой и двойственной задач совпадают.
Определим функцию V (t) = xT(t)X(t)x(t), где X(t) удовлетворяет нера-
венствам (4.7). Приращение этой функции по траектории системы (4.1) удо-
влетворяет условиям
ΔV (t) + λ-1|z(t)|2 - vT(t)G-1v(t) ≤ 0,
(Π.2)
V (t0) = xT(t0)R-1x(t0), V (tf ) ≥ λ-1xT(tf )Sx(tf ).
Отсюда получим
tf-1
tf-1
|z(t)|2 + xT(tf )Sx(tf ) ≤ λ + λx(t0)R-1x(t0) +
vT(t)G-1(t)v(t) - 1,
t=t0
t=t0
т.е. минимальное значение λ, при котором разрешимы неравенства (4.7),
является оптимальным значением в задаче D и совпадает с обобщенной
H-нормой системы (4.1).
Доказательство теоремы 5.1. Из теоремы 4.1 применительно к си-
стеме (5.3) следует, что если выполнены неравенства (4.7), в которых мат-
рица A заменена A - ΘC и B заменена B - ΘC, то обобщенная H-норма
51
системы меньше λ. Применяя лемму Шура, преобразуем эти неравенства к
виду
Y (t + 1) - (A - ΘC)Y (t)(A - ΘC)T - (B - ΘD)G(B - ΘD)T -
- (A - ΘC)Y (t)CTz (λI - CzY (t)CTz )-1CzY (t)(A - ΘC)T ≥ 0
при условии, что CzY (t)CTz < λI. Выделяя в левой части этого неравенства
полный квадрат по Θ и учитывая обозначения (5.5), в результате некоторых
манипуляций получим
[
]-1
Y (t + 1) - A
Y-1(t) + CTG-1DC - λ-1CTzCz
AT - GB -
[
]
− (Θ - Θ)
Y-1(t) + CTG-1DC - λ-1CTzCz
(Θ - Θ)T ≥ 0,
где Θ задана в (5.9) при P (t) = Y (t). Отсюда следует, что если параметры
фильтра определяются формулой (5.9), в которой матрица P (t) удовлетворя-
ет уравнению (5.10), то γ2s < λ.
СПИСОК ЛИТЕРАТУРЫ
1.
Куржанский А.Б. Управление и наблюдение в условиях неопределенности.
М.: Наука, 1977.
2.
Квакернаак Х., Сиван Р. Линейные оптимальные системы управления. М.: Мир,
1977.
3.
Kailath T., Sayed A.H., Hassibi B. Linear Estimation. New Jersey: Prentice Hall,
2000.
4.
Hinrichsen D., Pritchard A.J. Stochastic H // SIAM J. Control Optim. 1998.
V. 36. No. 5. P. 1504-1538.
5.
Petersen I.R., Ugrinovskii V.A., Savkin A.V. Robust Control Design Using H-
Methods. London: Springer-Verlag, 2000.
6.
Schweppe F.C. Recursive State Estimation: Unknown but Bounded Errors and Sys-
tem Inputs // IEEE Trans. Autom. Control. 1968. V. 13. No. 1. P. 22-28.
7.
Wilson D. Extended Optimality Properties of the Linear Quadratic Regulator and
Stationary Kalman Filter // IEEE Trans. Autom. Control. 1990. V. 35. No. 5.
P. 583-585.
8.
Willems J.C. Deterministic least squares filtering. Journal of Econometrics. 2004.
V. 118. P. 341-373.
9.
Buchstaller D., Liu J., French M. The Deterministic Interpretation of the Kalman
Filter // Int. J. Control. 2021. V. 94. No. 11. P. 3226-3236.
10.
Коган М.М. Оптимальные оценивание и фильтрация при неизвестных ковариа-
циях случайных факторов// АиТ. 2014. № 11. С. 88-109.
11.
Boyd S., Vandenberghe L. Convex Optimization. Cambridge: University Press, 2004.
12.
Черноусько Ф.Л. Оценивание фазового состояния динамических систем.
М.: Наука, 1988.
13.
Wilson D.A. Convolution and Hankel Operator Norms for Linear Systems // IEEE
Trans. Autom. Control. V. 34. No. 1. P. 94-97.
52
14. Баландин Д.В., Бирюков Р.С., Коган М.М. Минимаксное управление уклоне-
ниями выходов линейной дискретной нестационарной системы // АиТ. 2019.
№ 12. С. 3-24.
15. Баландин Д.В., Коган М.М. Синтез законов управления на основе линейных
матричных неравенств. М.: Физматлит, 2007.
16. Hsieh C., Skelton R. All Covariance Controllers for Linear Discrete-Time Systems //
IEEE Trans. Autom. Control. 1990. V. 35. No. 8. P. 908-915.
Статья представлена к публикации членом редколлегии Б.М. Миллером.
Поступила в редакцию 24.08.2022
После доработки 18.11.2022
Принята к публикации 30.11.2022
53