Автоматика и телемеханика, № 7, 2021
© 2021 г. А.И. ГЛУЩЕНКО, канд. техн. наук (a.glushchenko@sf-misis.ru),
В.А. ПЕТРОВ, канд. техн. наук (petrov.va@misis.ru),
К.А. ЛАСТОЧКИН (lastconst@yandex.ru)
(Старооскольский технологический институт им. А.А. Угарова (филиал)
ФГАОУ ВО “Национальный исследовательский технологический
университет “МИСиС”)
I-DREM: ОСЛАБЛЕНИЕ УСЛОВИЯ КВАДРАТИЧНОЙ
ИНТЕГРИРУЕМОСТИ1
Исследование посвящено ослаблению в процедуре DREM условия квад-
ратичной интегрируемости регрессора ω(t) ∈ L2 для обеспечения моно-
тонной асимптотической сходимости параметрической ошибки в задаче
оценки постоянных параметров линейной регрессионной зависимости.
Ключевые слова: линейная регрессия, идентификация параметров, посто-
янное возбуждение, начальное возбуждение, квадратичная интегрируе-
мость, коэффициент усиления закона оценки.
DOI: 10.31857/S0005231021070084
1. Введение. Постановка задачи.
В последние годы в отечественной и зарубежной литературе появилось
множество публикаций [1-11], посвященных ослаблению требования посто-
янного возбуждения (в зарубежной литературе Persistent Excitation PE)
для экспоненциальной сходимости ошибкиθ(t) =θ(t) - θ в градиентных схе-
мах идентификации постоянных параметров линейной регрессии
(1.1)
y(t) = ϕT
(t)θ,
где y(t) ∈ R функция регрессионной зависимости, ϕ(t) ∈ Rn вектор ре-
грессора, θ ∈ Rn вектор неизвестных параметров,θ(t) ∈ Rn вектор оце-
нок параметров θ.
Определение 1. Регрессор ϕ(t) ∈ L, где t ∈ [0;∞), постоянно воз-
бужден (ϕ(t) ∈ PE), если ∃T0 > 0 и α > 0 такие, что ∀t ≥ 0 верно неравен-
ство
(1.2)
ϕ(τ)ϕT
(τ)dτ ≥ αI,
t
где I
единичная матрица, а α степень возбуждения.
1 Работа выполнена при финансовой поддержке Российского фонда фундаментальных
исследований (проект № 18-47-310003 р_а).
147
Предположение. Неизвестные параметры регрессии (1.1) таковы, что
θ=0,θ=const∀t≥0.
Не претендуя на полноту обзора и не учитывая весьма частные решения
[1, 2] и другие, выделим некоторые основные методы [3-6], позволяющие осла-
бить условие (1.2). Для более полного ознакомления с существующими реше-
ниями рекомендуем обратится к обзору [7].
Во-первых, это схемы расширения и фильтрации регрессора DRE [12] и
MRE [13] при применении автоколебательных [3] и интегральных [4] филь-
тров. Использование фильтров такого рода позволяет ослабить требование
постоянного возбуждения до требования начального возбуждения (в зару-
бежной литературе Initial Excitation IE ).
Определение 2. Регрессор ϕ(t)∈L, где t∈[0;∞), возбужден (ϕ(t)∈IE)
на начальном интервале времени [0;T0], если для T0 > 0 ∃α > 0 такое, что
T0
(1.3)
ϕ(τ) ϕT
(τ) dτ ≥ αI,
0
где I
единичная матрица, а α степень возбуждения.
Однако, несмотря на ослабление условия ϕ(t) ∈ PE до ϕ(t) ∈ IE, упомяну-
тые решения не являются универсальными, поскольку в уравнениях филь-
тров содержатся незамкнутые отрицательной обратной связью интеграторы,
чувствительные к шумам и начальным условиям [7]. Для решения этой про-
блемы в [8] был предложен новый фильтр, свободный от данного недостатка
и в отличие от фильтра Крейссельмейера [13] позволяющий в схеме расшире-
ния и фильтрации регрессора MRE обеспечить экспоненциальную сходимость
при выполнении условия ϕ(t) ∈ IE.
Во-вторых, это процедура DREM [5, 6], в которой используются исключи-
тельно устойчивые фильтры в виде апериодических звеньев первого порядка
или операторов задержки. В отличие от рассмотренных методов [3, 4, 12, 13],
подход DREM позволяет преобразовать уравнение регрессии (1.1) с матрич-
ным регрессором ϕ(t) к n скалярным уравнениям, что влечет за собой как по-
лучение нового условия асимптотической сходимости, оказывающегося сла-
бее ϕ(t) ∈ PE и отличающегося от него, так и монотонную сходимость к нулю
в отдельности по каждой ошибке из вектора θ(t). Чтобы более детально про-
анализировать этот подход, применим его к регрессии (1.1).
Для этого в количестве n - 1 введем устойчивые операторы
f
α
i
(1.4)
;
i ∈ {1,2,...,n - 1},
(.)fi(t):=[Hi(.)](t);Hi(p)=
p+βf
i
где αfi > 0 и βfi > 0.
148
Пропуская через операторы (1.4) функцию y(t) и регрессор ϕ(t), сформи-
руем расширенное уравнение регрессии
Yf(t) = Φf(t)θ,
[
]T
Yf(t) =
y(t) yf1 (t) . . . yfn-1 (t)
;
(1.5)
[
]T
Φf(t) = ϕT(t) ϕTf
(t) . . . ϕTf
(t)
1
n-1
Домножив уравнение (1.5) слева на присоединенную матрицу алгебраи-
ческих дополнений adj {Φf (t)} матрицы расширенного регрессора Φf (t), а
также пользуясь равенством adj {Φf (t)} Φf (t) = det {Φf (t)}I (I - единичная
матрица), получим уравнение
(1.6)
Y (t) = adj {Φf (t)} Yf (t) = adj {Φf (t)} Φf (t)θ = det {Φf
(t)} Iθ = ω(t)θ,
где Y (t) ∈ Rn, ω(t) ∈ R.
Уравнение (1.6) может быть преобразовано к n скалярным уравнениям
вида
(1.7)
Yi(t) = ω(t)θi.
На основе скалярных уравнений (1.7) может быть получен закон гради-
ентной оценки неизвестных параметров
(
)
(1.8)
θ
i = -γiω ωθi - Yi ,
где γi > 0 - коэффициент усиления закона настройки.
В силу уравнения (1.7) решение дифференциального скалярного уравне-
ния (1.8) имеет вид
t
(1.9)
θi(t) = eit0ω2(τ)dτ θi (t0
),
где t0
момент времени, в который достигается неравенство нулю регрессора
ω(t).
Из уравнения (1.9) следует: 1) сохранение после применения процедуры
DREM требования постоянного возбуждения (1.2) для экспоненциальной схо-
димости параметрической ошибки; 2) возникновение нового условия квадра-
тичной интегрируемости ω(t) ∈ L2, необходимого для асимптотической схо-
θi=0.
димости limt→∞
Определение 3. Для регрессора ω(t) выполняется условие квадратич-
ной интегрируемости (ω(t) ∈ L2), если верно равенство
v
u
u∫t
u
(1.10)
∥ω∥2 =
√ ω2
(τ) dτ = ∞.
0
149
В [5], не ограничивая общности, на примере n = 2 был установлен класс
исходных регрессоров ϕ(t), отличных от ϕ(t) ∈ PE, для которых скалярные
регрессоры, полученные с помощью процедуры (1.5)-(1.7), удовлетворяют
условию ω(t) ∈ L2.
Утвержден] е 1. Если исходный регрессор задан как ϕT(t) =
[
=
c g(t) + ġ(t)
, где c
произвольная постоянная, и в процедуре
(1.5)-(1.7) используются операторы (1.4), то ϕ(t) ∈ PE и ω(t) ∈ L2, если и
только если для функции g(t) и ее производной выполняются условия
g(t) ∈ L,
ġ(t) ∈ L,
ġ(t) ∈ L2,
(1.11)
lim
g(t) = lim ġ(t) = 0.
t→∞
t→∞
На основе определения функции g(t) очевидно, что новое условие (1.11)
слабее [5-7] требования постоянного возбуждения (1.2), но сильнее тре-
бования начального возбужде[ия (].3). Так, например, существует исход-
ный регрессор вида ϕT(t) =
1e-t
∈ IE или скалярный регрессор вида
ω(t) = e-t ∈ IE и ω(t) = e-t ∈ L2, для которых в силу (1.11) и утверждения 1
закон оценки (1.8) не обеспечивает ни экспоненциальной, ни даже асимпто-
тической параметрической сходимости.
Для решения этой проблемы и обеспечения сходимости ∀ω(t) ∈ IE в [9-11]
был предложен FTC (finite-time convergence) контур оценки:
{
[
]
1
σ, если φ ≥ σ,
θF T C
=
φc =
i
θi - φcθi (0) ;
1-φc
φ, если φ < σ,
(1.12)
φ=-γiω2φ, φ(0) = 1.
Контур оценки (1.12) обеспечивает сходимость оценкиθFTCi к θi за конеч-
ное время tc, если для регрессора ω(t) выполняется условие
tc
1
(1.13)
ω2 (τ) dτ ≥ -
ln (σ) .
γi
0
Недостатками контура оценки (1.12) является отсутствие доказательства
робастности к возмущениям, потеря сходимости за конечное время при
ω(t) ∈ L2 (решение этой проблемы предложено в [11]), а также высокая чув-
ствительность к параметрам σ ∈ (0; 1) и γi, от выбора значений которых це-
ликом зависит выполнение условия (1.13).
Поэтому задача обеспечения сходимости параметрической ошибки в слу-
чае ω(t) ∈ IE является решенной не до конца, что позволяет сформулировать
первую задачу настоящей статьи в следующем виде.
Задача 1. Требуется построить закон оценки неизвестных парамет-
ров скалярных регрессий (1.7), обеспечивающий монотонную экспоненциаль-
ную сходимость ошибкиθi(t) в случае ϕ(t) ∈ IE (ω(t) ∈ IE).
150
Замечание. В силу устойчивости и различия i-х фильтров (1.4) если
исходный регрессор ϕ(t) ∈ IE, то и скалярный регрессор ω(t) ∈ IE. Доказа-
тельству этого утверждения посвящена публикация [14].
В законах оценки вида (1.8) важную роль выполняет экспериментально
подбираемый параметр коэффициент усиления γi, с помощью которого
возможно повлиять на скорость сходимости параметрической ошибки (1.9).
На практике, во многих приложениях, эксперименты по выбору данного ко-
эффициента проведены быть не могут. Поэтому полезно было бы иметь закон
настройки коэффициента усиления.
Такой закон настройки может быть построен с помощью применения для
оценки параметров θ не градиентного закона (1.8), а контура оценки, постро-
енного согласно рекурсивному методу наименьших квадратов с коэффициен-
том забывания λ:
{
ˆ
θi = -γiω(ωθ
i - Yi), γi (0) > 0;
(1.14)
γi = λγi - γ2iω2,
λ > 0.
Однако в
[15] была доказана невозможность применения контура
(1.14) для идентификации параметров скалярных регрессий (1.7), если:
1) ω(t) ∈ PE; 2) ω(t) ∈ L2 и ω(t) → 0; 3) ω(t) ∈ L2. В этих случаях γi(t) → ∞.
Поэтому вторую задачу настоящей статьи сформулируем в следующем виде:
Задача 2. Требуется построить контур оценки неизвестных парамет-
ров скалярных регрессий (1.7), использующий переменный коэффициент уси-
ления закона оценки γi(t) и обеспечивающий γi(t) ∈ L и экспоненциальную
сходимость ошибкиθi(t) в случае ϕ(t) ∈ IE (ω(t) ∈ IE).
Для решения поставленных задач в данной статье предлагается сначала
выполнить расширение скалярных регрессий (1.7) по методу MRE [13] с ис-
пользованием упомянутого нового фильтра [8]. Затем на основе полученной
модифицированной регрессии построить закон оценки по градиентному ме-
тоду (задача 1) и рекурсивному методу наименьших квадратов (задача 2), а
после доказать аналитически и экспериментально их требуемые свойства.
2. Расширение и фильтрация скалярного регрессора
Применим к скалярной регрессии
(1.7) метод расширения регрессо-
ра MRE. Для этого умножим уравнение (1.7) слева и справа на регрессор ω(t):
ω(t)Yi(t) = ω2(t)θi.
Воспользуемся предложенным в [8] фильтром2
t
(2.1)
uf (t) = e-µτ
u(τ)dτ,
t0
где µ > 0 - коэффициент памяти, uf (t) и u(t) - выход и вход фильтра.
2 Фильтр представляет собой интегратор с экспоненциальным уменьшением вклада но-
вых слагаемых, поэтому полученную в статье процедуру назовем I-DREM.
151
Утверждение 2. Если вход фильтра u(t) ∈ L, то выход фильтра
uf(t) ∈ L.
Доказательство утверждения 2 можно найти в [8].
Пропустим через фильтр (2.1) расширенный регрессор ω2(t) и функцию
ω(t)Yi(t):
t
t
(2.2)
Ω(t) = e-µτ ω2 (τ) dτ; Υi(t) = e-µτ ω (τ) Yi
dτ.
t0
t0
Утверждение 3. Фильтрованный скалярный регрессор Ω(t) ∀ω(t) ∈ IE
является таким, что:
1) ∀t ≥ 0 Ω(t) ≥ 0 и Ω(t) ∈ L;
2) ∀t ≥ T0 Ω(t) > 0;
3) а) если ω(t) ∈ IE и ω(t) ∈ PE ∀t ≥ T0, верно Ω (T0) ≤ Ω(t) ≤ Ω (T0) + β;
б) если ω(t) ∈ PE ∀t ≥ Tµ, верно Ω (Tµ) ≤ Ω(t) ≤ Ω (Tµ) + β1 и Ω(t) > 0,
где Tµ ≥ T0;
4) Ω(t) ∈ L2.
Доказательство. Для доказательства первой части утверждения най-
дем производную по времени регрессора Ω(t):
Ω(t) = e-µtω2(t).
(
)
Так как ∀t ≥ 0 sign
e-µtω2(t)
≥ 0, тоΩ (t) ≥ 0, а следовательно, Ω(t) ≥ 0
∀t ≥ 0. По условию IE - ω(t) ∈ L, а согласно доказательству утверждения 2
этого достаточно для Ω(t) ∈ L. Первая часть утверждения 3 доказана, пе-
рейдем к доказательству второй части.
Следуя определению 2, запишем условие начального возбуждения для ре-
грессора ω(t):
T0
(2.3)
ω2
(τ)dτ ≥ α.
t0
Тогда ∀t ≥ T0 верно неравенство
t
ω2 (τ) dτ > 0.
t0
Откуда, так как e-µt > 0 ∀t < ∞, следует
t
(2.4)
Ω(t) = e-µτ ω2 (τ) dτ > 0 ∀t ≥ T0.
t0
152
Что и требовалось доказать во второй части утверждения 3.
Для доказательства п. 3a утверждения 3 перепишем выражение (2.4), раз-
бив всю ось времени на два интервала:
t
T0
(2.5)
Ω(t) = e-µτ ω2 (τ) dτ + e-µτ ω2
(τ) dτ.
t0
T0
Первый интеграл в (2.5), согласно ω(t) ∈ IE (2.3) и в силу п. 1 утвержде-
ния 3, ограничен своим значением на правой границе
T0
(2.6)
e-µτ ω2 (τ)dτ ≤ Ω (T0
).
t0
Согласно определению 2 при ω(t) ∈ IE и ω(t) ∈ PE можно предположить,
что ∀t ≥ T0 ω(t) → 0, тогда ∀t ≥ T0 для второго интеграла в (2.5) справедливо
неравенство
t
(2.7)
Ω(t) = e-µτ ω2
(τ) dτ ≤ β,
T0
где β ≥ 0.
С учетом (2.5)-(2.7) имеем
Ω (T0) ≤ Ω(t) ≤ Ω (T0) + β ∀t ≥ T0,
что завершает доказательство п. 3a утверждения 3.
Для доказательства п. 3б утверждения 3 введем момент времени Tµ ≥ T0.
Тогда так как e-µt → 0, то аналогично анализу (2.5)-(2.7), используя Tµ вме-
сто T0, можно показать, что
Ω (Tµ) ≤ Ω(t) ≤ Ω (Tµ) + β1 ∀t ≥ Tµ,
где β1 ≥ 0.
По п. 2 утверждения 3, в силу Tµ ≥ T0, ясно, что Ω(t) > 0, что завершает
доказательство п. 3б утверждения 3.
Согласно доказательству п. 3 утверждения 3 введем понятия максималь-
ного и минимального ∀t ≥ T0 значений регрессора Ω(t) и моментов времени,
в которые эти значения достигаются:
{Ω (T0) + β, если [ω(t) ∈ IE ∧ ω(t) ∈ PE] ,
Ωmax = Ω (t → ∞) =
Ω (Tµ) + β1, если ω(t) ∈ PE,
(2.8)
{Ω (T0), если [ω(t) ∈ IE ∧ ω(t) ∈ PE],
Ωmin (Tmin) =
Ω (Tµ) , если ω(t) ∈ PE.
153
Тогда проверить условие квадратичной интегрируемости (1.10) для ре-
грессора Ω(t) представляется возможным, используя определения Ωmin (Tmin)
иTmin,
v
v
u
u
u
u
∥Ω(t)∥2 =
√ Ω2 (τ)dτ ≥
√ Ω2 (τ)dτ + Ω2 (τ)dτ =
0
0
Tmin
v
u
u
u
=
√C + Ω2min (Tmin)dτ ≥ C + Ωmin (Tmin) (∞ - Tmin) = ∞,
Tmin
где C > 0.
Отсюда следует Ω(t) ∈ L2, что и требовалось доказать в части 4 утвер-
ждения 3.
С учетом обозначений (2.2) регрессия (1.7) может быть переписана в виде
(2.9)
Υi(t) = Ω(t)θi.
3. Градиентный закон оценки
Градиентный закон оценки, построенный на основе уравнений регрессии
(2.9), имеет вид
(
)
θ
(3.1)
i = -γiΩ Ω θi - Υi
По аналогии с (1.9) решение уравнения (3.1) приобретает вид
t
(3.2)
θi(t) = eit0Ω2(τ)dτ θi (t0
).
Согласно части 4 утверждения 3 ∀ω(t) ∈ IE Ω(t) ∈ L2, а значит, соглано
уравнению (3.2) гарантируется асимптотическая сходимость limt→∞
θ
i(t)=
= 0.
Таким образом, относительно классической процедуры DREM получено
ослабление требования ω(t) ∈ L2 для сходимости параметрической ошибки
до требования ω(t) ∈ IE (ϕ(t) ∈ IE).
В следующей теореме 1 докажем, что при ω(t) ∈ IE (ϕ(t) ∈ IE) сходимость
параметрической ошибки (3.2) не только асимптотическая, но и экспоненци-
альная.
Теорема 1. 1. Параметрическая ошибка θi при ω(t) ∈ IE (ϕ(t) ∈ IE) мо-
нотонно экспоненциально сходится к нулю со скоростью больше чем 0,5κmin;
2. Минимальная 0,5κmin и максимальная 0,5κmax скорости сходимости мо-
гут быть произвольно увеличены выбором коэффициента γi.
154
Доказательство теоремы 1, а также выражения для оценок κmin и κmax
приведены в Приложении.
Согласно доказательству теоремы 1 полученный закон оценки (3.1), как и
закон оценки (1.8), обеспечивает монотонность для каждой параметрической
ошибкиθi, но при этом требует более слабого условия ω(t) ∈ IE для еe асимп-
тотической и экспоненциальной сходимости по сравнению с законом (1.8).
Отсюда следует решение поставленной задачи 1.
4. Контур идентификации с настраиваемым коэффициентом усиления
Теперь для идентификации неизвестных параметров регрессии (2.9) вос-
пользуемся формулами рекурсивного метода наименьших квадратов. В этом
случае контур оценки примет вид
{
(
)
θ
i = -γiΩ Ω θi - Υi , γi (0) > 0;
(4.1)
γi = λγi - γ2iΩ2,
λ > 0.
Свойства контура оценки (4.1) опишем теоремой 2.
Теорема 2. При ω(t) ∈ IE (ϕ(t) ∈ IE) контур оценки (4.1) обладает сле-
дующими свойствами:
1) коэффициент усиления γi(t) ограничен так, что ∀t ≥ 0 верно неравен-
ство
(4.2)
γi.min ≤ γi(t) ≤ γi.max;
2) для коэффициента усиления γi(t) справедлив предел:
(4.3)
γi.lim = lim
γi(t) = λΩ-2max;
t→∞
3) параметрическая ошибкаθi монотонно экспоненциально сходится к
нулю со скоростью больше чем 0,5ηmin;
4) минимальная 0,5ηmin и максимальная 0,5ηmax скорости сходимости
могут быть произвольно увеличены выбором коэффициента λ.
Доказательство теоремы 2, а также выражения для оценок γi.min, γi.max и
ηmin, ηmax приведены в Приложении.
Согласно доказательству теоремы 2 контур оценки (4.1) использует ко-
эффициент усиления γi(t) ∈ L, настраиваемый по формулам рекурсивного
метода наименьших квадратов с фактором забывания, и при этом обеспе-
чивает монотонную экспоненциальную сходимость при ϕ(t) ∈ IE, что было
невозможно в исходной схеме DREM [15] и свидетельствует о решении по-
ставленной задачи 2.
5. Рассуждение о потере идентифицирующей способности
Из выражения (2.2) следует, что через 5µ-1 регрессор Ω(t) и функ-
ция Υi(t), а значит, и контуры оценки (3.1) и (4.1) станут нечувствительными
155
к новым значениям регрессора ω(t) и функции Yi(t). Однако при выполнении
предположения по доказанному в теоремах 1 и 2 это обстоятельство не ока-
зывает влияния на экспоненциальную параметрическую сходимость, которая
гарантируется ∀t ≥ T .
Если же допустить, что параметры регрессии (1.1), вопреки принятому
предположению, изменили свое значение в любой момент времени t ≥ 5µ-1,
то контуры оценки (3.1) и (4.1) не смогут произвести переидентификацию,
поскольку оперируют “старыми данными” о регрессоре ω(t) и функции Yi(t).
Необходимо отметить, что обойти описанную потерю идентифицирующей
способности возможно двумя способами. Во-первых, устремив значение пара-
метра µ к нулю, приближая тем самым предложенный фильтр к интеграль-
ному [4], но сохраняя при этом свойство робастности к возмущениям (дока-
зательство сохранения робастности при µ → 0 и µ = 0 можно найти на рис. 6
и в Приложении публикации [8]) и, во-вторых, “привязавшись” к конкретно-
му типу регрессора ϕ(t). В частности, если регрессор ϕ(t) это координа-
ты состояния объекта управления, работающего по ступенчатому задающему
воздействию, то возможно проводить переидентификацию начиная отсчет t
с нуля в моменты времени изменения задающего воздействия. В целом слу-
чай потери идентифицирующей способности выходит за рамки настоящей
статьи, поскольку согласно предположению идентификацию параметров ре-
грессии (1.1) достаточно провести один раз.
6. Иллюстративный пример
В качестве иллюстрации эффективности предлагаемого подхода приве-
дем результаты математического моделирования контуров оценки (1.8), (3.1)
и (4.1) при идентификации параметров линейной регрессии (1.1) для слу-
чая n = 2. Моделирование проводилось в Matlab/Simulink на основе числен-
ного интегрирования методом Эйлера c постоянным шагом дискретизации
τs = 10-6 с. Регрессор ϕ(t), вектор неизвестных параметров θ и параметры
фильтра (1.4) в DREM процедуре были заданы такими:
[
]
[
]
(6.1)
ϕT(t) =
1
e-4 t
;
θT =
5
-5
;
αf1 = βf1
= 1.
Как следует из выражения (6.1), для регрессора ϕ(t) не выполняются тре-
бования (1.2) и (1.11), необходимые соответственно для асимптотической и
экспоненциальной сходимости параметрической ошибкиθ при использовании
контура оценки (1.8), что в ходе эксперимента должно продемонстрировать
эффективность разработанного подхода.
Параметры контура оценки (1.8) были выбраны в соответствии со значе-
ниями
[
]
(6.2)
θT (0) =
0
0
;
γ1 = γ2
= 50.
Параметры фильтра (2.1) и контура идентификации (3.1) были выбраны
в соответствии со значениями, приведенными в выражении
[
]
1
θT (0) =
0
0
;
γ1 = γ2 = 50; µ =
8
156
W, w
0,12
W
w
0,10
0,08
0,06
0,04
0,02
0
0
20
40
60
80
t, c
Рис. 1. Переходные процессы по DREM и I-DREM регрессорам ω(t) и Ω(t).
Для контура (4.1) использовались начальные значения γ1 (0) и γ2 (0), сов-
падающие со значениями для контура (3.1). Коэффициент забывания был
принят λ = 0,1.
На рис. 1 изображены переходные процессы по регрессору ω(t), получен-
ному по (1.4)-(1.7) из ϕ(t), и фильтрованному регрессору Ω(t), полученному
в соответствии с (2.1) из ω(t).
Результаты моделирования, приведенные на рис. 1, полностью подтвер-
ждают все аналитические выкладки, полученные в утверждении 3. Благода-
ря применению разработанной процедуры I-DREM из исходного регрессора
ω(t) ∈ IE (ϕ(t) ∈ IE) действительно можно получить фильтрованный регрес-
сор Ω(t) ∈ L2.
На рис. 2 приведены переходные процессы по параметрическим ошибкам
θ1 иθ2 при использовании закона оценки (1.8) рис. 2,а и (3.1) рис. 2,б.
Из сравнения переходных процессов на рис. 2,а и рис. 2,б следует, что
контур оценки (3.1), в отличие от (1.8), обеспечивает экспоненциальную схо-
димость параметрических ошибокθ1 иθ2, что подтверждает выводы, сде-
ланные при доказательстве теоремы 1, и свидетельствует о решении зада-
чи 1. Для контура оценки (3.1) увеличения скорости сходимости ошибокθ1
и θ2 согласно части 2 теоремы 1 и замечанию П.2 (см. Приложение) воз-
можно добиться, увеличивая коэффициенты γ1 и γ2 или уменьшая параметр
фильтра µ.
На рис. 3,а изображены переходные процессы по коэффициентам усиления
γ1(t) и γ2(t) при использовании контура оценки (4.1), а также их верхние и
нижние оценки (4.2) и предел (4.3). Так как для контуров настройки γ1 и
γ2 использовались одинаковые параметры λ, γ1 (0) и γ2 (0), то графики для
γ1(t) и γ2(t), как и их верхние и нижние оценки и пределы, совпадают.
Из рис. 3,а следует, что γ1(t) и γ2(t) являются L ограниченными (4.2)
для регрессора (6.1), что было невозможно в схеме (1.12) [15].
157
~
~
q
a
q
б
6
6
~
~
q1
q1
~
~
q2
q2
4
4
2
2
0
0
-2
-2
-4
-4
0
20
40
60
80
t, c
0
20
40
60
80
t, c
Рис. 2. Переходные процессы по параметрическим ошибкам
θ1 и
θ2 для зако-
нов оценки (1.8) и (3.1).
~
g1, g2
a
q
б
6
~
q1
80
~
q2
4
75
2
70
g1, g2
gmin
65
0
gmax
glim
60
-2
55
-4
50
0
20
40
60
80
t, c
0
20
40
60
80
t, c
Рис. 3. Переходные процессы по коэффициентам усиления γ1 и γ2 (а) и по
параметрическим ошибкам
θ1 и
θ2 для контура (4.1) (б).
На рис. 3,б приведены переходные процессы по параметрическим ошиб-
кам при использовании закона оценки с настраиваемым коэффициентом уси-
ления (4.1).
Из сравнения переходных процессов рис. 2,а и рис. 3,б следует, что контур
оценки (4.1), в отличие от (1.8), обеспечивает экспоненциальную сходимость
параметрических ошибокθ1 иθ2 и использует настраиваемый коэффициент
усиления, что подтверждает выводы, сделанные при доказательстве теоре-
мы 2, и в совокупности с показанной на рис. 3,а ограниченностью γ1 и γ2
158
свидетельствует о решении задачи 2. Для контура оценки (4.1) увеличения
скорости сходимости ошибокθ1 иθ2 согласно части 4 теоремы 2 и замеча-
нию П.3 (см. Приложение) можно добиться, увеличивая коэффициент λ или
уменьшая параметр фильтра µ.
7. Заключение
В статье для процедуры DREM предложена модификация, ослабляющая
требование квадратичной интегрируемости для асимптотической сходимости
процесса оценки до требования начального возбуждения регрессора. Кроме
того, предложенный подход позволил обеспечить процессу оценки не только
асимптотическую, но и экспоненциальную сходимость при выполнении тре-
бования начального возбуждения регрессора, что слабее требования посто-
янного возбуждения в исходной схеме DREM.
Результатом статьи являются контуры идентификации (3.1) и (4.1), кото-
рые могут быть использованы во многих задачах теории адаптивного управ-
ления, требующих идентификации постоянных параметров линейной регрес-
сии (1.1).
В дальнейших исследованиях планируется ослабить принятое предполо-
жение и распространить полученные результаты на интервально заданные
параметры регрессии (1.1).
ПРИЛОЖЕНИЕ
Доказательство теоремы 1. Чтобы осуществить доказательство
теоремы 1 с учетом предположения, перепишем уравнение (3.1):
˜
(Π.1)
θi = -γiΩ2
θi.
(
)
Так как sign
iΩ2
≤ 0, то˙θi ≤ 0, а следовательно, θi монотонна.
Для доказательства экспоненциальной сходимости ошибкиθi выберем кан-
дидата в функции Ляпунова в виде квадратичной формы
(Π.2)
Vi = 0,5θ2i.
Производная квадратичной формы (П.2) в силу действия уравнения (П.1)
имеет вид
[
]
(Π.3)
Viiθ
i
= θiiΩ2θi
= -γiΩ2 θ2i
≤ 0.
Найдем наименьшую отрицательную верхнюю границу производной (П.3).
Для этого введем момент времени T ≤ T0, определяющий верхнюю границу
наименьшего интервала времени, на котором выполняется ω(t) ∈ IE. В этом
случае условие (1.3) может быть переписано в виде
T
ω2 (τ)dτ ≥ α.
t
159
Тогда ∀t ≥ T верно неравенство
t
ω2 (τ) dτ > 0.
t0
Откуда, так как e-µt > 0 ∀t < ∞, следует, что
t
Ω(t) = e-µτ ω2 (τ) dτ > 0,
(Π.4)
t0
Ω(t) ≥ Ω (T ) > 0 ∀t ≥ T,
где Ω (T ) наименьшее ∀t отличное от нуля значение регрессора Ω(t).
Если справедлива оценка (П.4), то справедлива и оценка
(Π.5)
Ω2(t) ≥ Ω2
(T ) .
Тогда верхняя оценка производной (П.3) ∀t ≥ T приобретает вид
(
)
(Π.6)
Vi ≤ -γiΩ2 (T)θ2i = -2γiΩ2 (T)
0,5θ2
= -κminVi.
i
Замечание П.1. В силу действия утверждения 3 время T и величина
Ω2 (T) на практике могут быть определены в момент времени выполнения
равенства
(Π.7)
Ω(t) = c,
где с выбирается таким образом, чтобы выполнялось неравенство
0 < c < µ-1ess supω2(t).
t≥t0
Получим ∀t ≥ T решение дифференциального неравенства (П.6) с учетом
определения функции Ляпунова (П.2)
(Π.8)
θi
2emin(t-T)Vi
(T).
Из уравнения (П.8) следует монотонная экспоненциальная сходимость па-
раметрической ошибкиθi ∀t ≥ T со скоростью больше чем 0,5κmin, что и
следовало доказать в первой части теоремы 1.
Чтобы доказать вторую часть теоремы 1, определим миноранту для ошиб-
киθi. В силу свойств регрессора Ω(t), доказанных в утверждении 3, а также
определения Ωmax в (2.8) нижняя оценка производной функции Ляпунова
примет вид
(
)
(Π.9)
Vi ≥ -γiΩ2maxθ2i = -2γiΩ2max
0,5θ2
= -κmaxVi.
i
160
Тогда с учетом (П.8) дляθi справедливо неравенство
(Π.10)
2emax(t-T)Vi (T ) ≤θi
2emin(t-T)Vi
(T ).
Откуда по определению κmin и κmax следует возможность их увеличения с
помощью выбора коэффициента усиления γi, что и требовалось доказать во
второй части теоремы 1. Теорема 1 доказана.
Замечание П.2. Поскольку Ω(T) и Ωmax зависят от постоянной филь-
тра µ (см. (2.8), (П.4)), то увеличить κmin и κmax можно и с помощью выбора
(уменьшения) значения параметра µ.
Доказательство теоремы 2. Чтобы доказать первую часть теоре-
мы 2, введем вспомогательное равенство
d
d
[
]
-1i
i
(Π.11)
1=
γ-1iγi
i
-1
= 0.
dt
dt
dt
i dt
Откуда, подставляя из (4.1) закон настройки γi(t), имеем закон настройки
γ-1i(t):
-1i
i
(Π.12)
= -γ-2
= Ω2 - λγ-1i.
dt
i dt
Решим дифференциальное уравнение (П.12):
t
(Π.13)
γ-1i(t) = γ-1i (0) e-λt + e-λ(t-τ)Ω2
(τ) dτ.
0
По доказанному в теореме 1
∃T > t0, такая что для Ω(t) верна оценка
снизу (П.4), поэтому ограниченность γ-1i(t) удобно рассматривать на интер-
валах 0 ≤ t < T и t ≥ T . Тогда ∀t < T полагаем Ω(t) = 0 и из (П.13) получаем
неравенство на интервале t < T для γ-1i(t):
(Π.14)
γ-1i (0) e-λT ≤ γ-1i(t) ≤ γ-1i
(0) .
Перейдем к рассмотрению интервала t ≥ T . Поскольку первое слагаемое
функции (П.13) строго убывающее ∀t > 0, а второе, по доказанным в утвер-
ждении 3 свойствам функции Ω(t), возрастающее ∀t ≥ T , то минимум
функции их суммы (П.13) будет достигнут при равенстве нулю суммы их
производных при t < ∞. Тогда ∀t ≥ T будет верна оценка снизу
γ-1i(t) ≥ γ-1i (0) e-λTextr.γi +
e(Textr.γi2 (τ) dτ ≥
(Π.15)
0
≥ γ-1i(0) e-λTextr.γi
,
|
{z
}
γ-1i(Textr.γi )
161
где T ≤ Textr.γi < ∞ априорно неизвестный момент времени равенства мо-
дулей производных слагаемых в функции (П.13).
Также из свойств функции Ω(t) и по теореме о среднем следует ∀t ≥ T
оценка сверху для γ-1i(t):
t
1-e-λ(t-T)
Ω2max
(Π.16)
γ-1i(t) ≤ Ω2max e-λ(t-τ)dτ = Ω2
max
λ
λ
T
Объединяя оценки (П.14) и (П.15)-(П.16), получим глобальные оценки для
γ-1i(t):
{
}
min γ-1i (0) e-λT , γ-1i (Textr.γi )
(Π.17)
{
}
≤ γ-1i(t) ≤ max
γ-1i (0) , λ-1Ω2max
Откуда можно перейти к оценкам для γi(t):
{
}
{
}
(Π.18)
min
γi (0) , λΩ-2max
≤ γi(t) ≤ max γi (0) eλT, γi (Textr.γi)
|
{z
}
|
{z
}
γ
i. min
γi.max
Что и требовалось доказать в первой части теоремы 2.
Чтобы доказать существование предела (4.3) для уравнения настройки
коэффициента усиления γi(t), введем кандидата в функции Ляпунова
(Π.19)
Vi = 0,5γ2i.
Производная функции (П.19) примет вид
Vi = γi γi = 2 · 0,5 · λγ2i - 2 · 0,5 · 0,50,5 · 0,5-0,5 · γ3iΩ2 =
[√
]
(Π.20)
Vi
= 2λVi - 2 · 0,5-0,5 · Vi
ViΩ2
= -2Vi
Ω2 - λ .
0,5
При t → ∞, учитывая (2.8), производная (П.20) примет вид
[√
]
Vi
(Π.21)
Vi = -2Vi
Ω2max - λ
0,5
Как следует из выражения (П.21), производная квадратичной формы
(П.19) при t → ∞ отрицательна вне множества
{
}
(Π.22)
Br =
γi ∈ R : γi ≤ λΩ-2max = ∂Br
Так как производная квадратичной формы (П.19) отрицательна вне мно-
жества Br, а внутри Br положительна, то согласно теореме ЛаСалля [16]
162
множество ∂Br, определяющее границу множества Br, является притягиваю-
щим (∂Br = γlim) для траекторий γi(t). Откуда следует выполнение предель-
ного равенства (4.3), что и требовалось доказать во второй части теоремы 2.
Для доказательства третьей части теоремы 2 выберем кандидата в функ-
ции Ляпунова
Vi = γ-1i θ2i,
{
}
θ2
(Π.23)
min γ-1i (0) e-λT , γ-1i (Textr.γi )
i
{
}
θ2
≤ γ-1iθ2i ≤ max
γ-1i (0) , λ-1Ω2max
i
Найдем производную функции (П.23):
[
]
[
]
Vi = γ-1i θ2i + 2γ-1i θi
θi =
Ω2 - λγ-1i
θ2
+ 2γ-1i θi iΩ2
i
θi =
(Π.24)
[
]
θ2
=-
λγ-1i + Ω2
i
С учетом выражений (П.5) и (П.18) получим ∀t ≥ T оценку сверху произ-
водной (П.24)
[
{
}
]
θ2
Vi ≤ - λmin γ-1i (0) e-λT-1i (Textr.γi )
+ Ω2 (T)
i
{
}
λmin
γ-1i (0) e-λT-1i (Textr.γi)
+ Ω2 (T)
(Π.25)
≤-
{
}
×
max
γ-1
(0) , λ-1Ω2max
i
{
} θ2
× max
γ-1i (0) ,λ-1Ω2max
≤ -ηminVi.
i
Решим ∀t ≥ T дифференциальное неравенство (П.25), подставив при этом
в левую часть полученного решения нижнюю оценку функции Ляпунова
θi ≤ max {γi (0) eλT , γi (Textr.γi )} emin(t-T)Vi (T ) =
(Π.26)
= γi.maxemin(t-T)Vi (T).
Из уравнения (П.25) следует монотонная экспоненциальная сходимость
параметрической ошибкиθi ∀t ≥ T со скоростью больше чем 0,5ηmin, что и
следовало доказать в третьей части теоремы 2.
Для доказательства четвертой части теоремы 2, в силу свойств регрессо-
ра Ω(t), доказанных в утверждении 3, и определения Ωmax в (2.8), получим
нижнюю оценку производной (П.23):
[
{
}
]
θ2
Vi ≥ -
λmax
γ-1i (0) , λ-1Ω2max
2max
i
=
{
}
λmax
γ-1i (0) , λ-1Ω2max
2max
=-
{
} ×
(Π.27)
min
γ-1i (0)e-λT , γ-1i (Textr.γi )
{
}
θ2
× min γ-1i (0) e-λT , γ-1i (Textr.γi )
i
= -ηmaxVi.
163
Решим ∀t ≥ T дифференциальное неравенство (П.26), подставив при этом
в левую часть полученного решения верхнюю оценку функции Ляпунова
{
}
θi ≥ min
γi (t0) , λΩmax
emax(t-T)Vi (T) =
(Π.28)
= γi.minemax(t-T)Vi (T).
Тогда с учетом (П.26) дляθi справедливо неравенство
(Π.29)
γi.minemax(t-T)Vi (T) ≤θi ≤ γi.maxemin(t-T)Vi
(T).
Откуда по определению ηmin и ηmax следует возможность их увеличения с
помощью выбора коэффициента λ, что и требовалось доказать в четвертой
части теоремы 2. Теорема 2 доказана.
Замечание П.3. Поскольку Ω(T), Ωmax и γi (Textr.γi) зависят (см. (2.8),
(П.4), (П.15)) от постоянной фильтра µ, то увеличить ηmin и ηmax можно и с
помощью выбора (уменьшения) значения параметра µ.
СПИСОК ЛИТЕРАТУРЫ
1.
Chowdhary G., Yucelen T., Muhlegg M., Johnson E. Concurrent Learning Adaptive
Control of Linear Systems with Exponentially Convergent Bounds // Int. J. Adaptive
Control Signal Process. 2013. V. 27. No. 4. P. 280-301.
2.
Adetola V., Guay M. Finite-Time Parameter Estimation in Adaptive Control of
Nonlinear Systems // IEEE Trans. Autom. Control. 2008. V. 53. No. 3. P. 807-811.
3.
Wang J., Aranovskiy S.V., Bobtsov A.A., Pyrkin A.А., Kolyubin S.А. A Method
to Provide Conditions for Sustained Excitation // Autom. Remote Control. 2018.
V. 79. No. 2. P. 258-264.
Ванг Ц., Арановский С.В., Бобцов А.А., Пыркин А.А., Колюбин С.А. Метод
обеспечения условий незатухающего возбуждения // АиТ. 2018. № 2. С. 71-79.
4.
Roy S.B., Bhasin S., Kar I.N. Combined MRAC for Unknown MIMO LTI Systems
with Parameter Convergence // IEEE Trans. Autom. Control. 2017. V. 63. No. 1.
P. 283-290.
5.
Aranovskiy S., Bobtsov A., Ortega R., Pyrkin A. Performance Enhancement of Pa-
rameter Estimators via Dynamic Regressor Extension and Mixing // IEEE Trans.
Autom. Control. 2016. V. 62. No. 7. P. 3546-3550.
6.
Aranovskiy S., Belov A., Ortega R., Barabanov N., Bobtsov A. Parameter Identifi-
cation of Linear Time-Invariant Systems Using Dynamic Regressor Extension and
Mixing // Int. J. Adaptive Control Signal Process. 2019. V. 33. No. 6. P. 1016-1030.
7.
Ortega R., Nikiforov V., Gerasimov D. On Modified Parameter Estimators for Iden-
tification and Adaptive Control. A Unified Framework and Some New Schemes //
Annual Reviews in Control. 2020. V. 50. P. 1-16.
8.
Glushchenko A., Petrov V., Lastochkin K. Robust Method to Provide Exponential
Convergence of Model Parameters Solving LTI Plant Identification Problem // arXiv
preprint arXiv:2009.14496. 2020. P. 1-18.
9.
Gerasimov D., Ortega R., Nikiforov V. Adaptive Control of Multivariable Systems
with Reduced Knowledge of High Frequency Gain: Application of Dynamic Regres-
sor Extension and Mixing Estimators. IFAC-PapersOnLine. 2018. V. 51. No. 15.
P. 886-890.
164
10. Pyrkin A., Bobtsov A., Ortega R., Vedyakov A., Aranovskiy S. Adaptive State Ob-
servers Using Dynamic Regressor Extension and Mixing // Syst. & Control Lett.
2019. V. 133. No. 11. P. 1-8.
11. Ortega R., Aranovskiy S., Pyrkin A., Astolfi A., Bobtsov A. New Results on Pa-
rameter Estimation via Dynamic Regressor Extension and Mixing: Continuous and
Discrete-Time Cases // IEEE Trans. Autom. Control. 2020. P. 1-8.
12. Lion P.M. Rapid Identification of Linear and Nonlinear Systems // AIAA J. 1967.
V. 5. No. 10. P. 1835-1842.
13. Kreisselmeier G. Adaptive Observers with Exponential Rate of Convergence // IEEE
Trans. Autom. Control. 1977. V. 22. No. 1. P. 2-8.
14. Yi B., Ortega R. Conditions for Convergence of Dynamic Regressor Extension and
Mixing Parameter Estimator Using LTI Filters // arXiv preprint arXiv:2007.15224.
2020. P. 1-6.
15. Korotina M., Aranovskiy S., Ushirobira R., Vedyakov A. On Parameter Tuning and
Convergence Properties of the DREM Procedure // ECC 18th Europ. Control Conf.
2020. P. 1-7.
16. Khalil H.K., Grizzle J.W. Nonlinear systems. N.J.: Prentice-Hall, 2002.
Статья представлена к публикации членом редколлегии А.А. Бобцовым.
Поступила в редакцию 28.10.2020
После доработки 09.12.2020
Принята к публикации 15.01.2021
165