Автоматика и телемеханика, № 10, 2019
Тематический выпуск1
© 2019 г. Н.О. АМЕЛИНА, канд. физ.-мат. наук (natalia_amelina@mail.ru),
О.Н. ГРАНИЧИН, д-р физ.-мат. наук (o.granichin@spbu.ru),
А.Л. ФРАДКОВ, д-р техн. наук (fradkov@mail.ru)
(Санкт-Петербургский государственный университет;
Институт проблем машиноведения РАН, Санкт-Петербург)
МЕТОД УСРЕДНЕННЫХ МОДЕЛЕЙ
ДЛЯ ДИСКРЕТНЫХ АДАПТИВНЫХ СИСТЕМ2
Динамические процессы в природе и технике часто описываются непре-
рывными или дискретными динамическими моделями, которые имеют
форму нелинейных стохастических дифференциальных или разностных
уравнений. Это определяет актуальность разработки эффективных мето-
дов упрощения описания динамических систем. Основным требованием
к методам упрощения является сохранение определенных свойств изу-
чаемого процесса. Среди таких — методы непрерывных или дискретных
усредненных моделей, обзор которых дается в этой статье. Также пред-
ставлены новые результаты для стохастических сетевых систем и пока-
зано, что метод усредненных моделей позволяет уменьшить сложность
анализа стохастической замкнутой системы. Получены соответствующие
верхние оценки среднеквадратичного отклонения состояний исходной сто-
хастической системы от ее приближенной усредненной модели.
Ключевые слова: динамические системы, нелинейные стохастические
уравнения, адаптивные системы, методы упрощения описания, прибли-
женные усредненные модели.
DOI: 10.1134/S0005231019100015
1. Введение
Едва ли можно найти в прикладной математике, физике или технике зада-
чи, при решении которых математическая модель исследуемого процесса не
подвергалась бы каким-либо упрощениям. В современной теории управления
замена исходного описания системы более простым широко применяется в
задачах управления большими системами, стохастическими объектами, объ-
ектами с распределенными параметрами, в задачах адаптивного управления
и т.п. Математические описания процессов в этих и многих других задачах
1 Статьи, опубликованные в данном номере, являются продолжением тематического
выпуска (№9, 2019 г.), посвященного 100-летию Я.З. Цыпкина.
2 Работа выполнена при частичной поддержке Российского фонда фундаментальных
исследований (проекты №№17-08-01728, 19-03-00375). Результаты разделов 8-11, по ана-
лизу непрерывно-дискретных и сетевых систем получены в ИПМаш РАН при поддержке
Российского научного фонда (грант №16-19-00057-П).
3
обычно базируются на непрерывных или дискретных динамических моделях,
имеющих вид дифференциальных или разностных уравнений. Этим объяс-
няется устойчивый интерес исследователей к вопросам разработки и обос-
нования эффективных методов упрощения динамических систем. Основным
требованием к методу упрощения является сохранение тех или иных свойств
изучаемого процесса.
Для непрерывных систем хорошо известен метод упрощения, основан-
ный на разделении быстрых и медленных движений в системе и усреднении
быстрой составляющей [1-12]. Этот метод, называемый методом (принципом)
усреднения, разработан как для детерминированных, так и для стохастиче-
ских систем. Эффект усреднения в таких системах возникает из-за стремле-
ния значений быстрой составляющей (при фиксированных медленных пере-
менных) к константе или к периодическому колебанию. Применимость мето-
да усреднения к стохастическим дифференциальным уравнениям обусловли-
вается тем, что быстрое движение (возмущение) обладает свойством слабой
зависимости: значения возмущений в отдаленные друг от друга моменты “по-
чти” независимы.
Эффект усреднения может возникать и в дискретных системах, описы-
ваемых стохастическими разностными уравнениями. Здесь механизм усред-
нения иной и основан на малости приращений процесса за один шаг. Дей-
ствия малых приращений, складываясь в большом количестве, компенсиру-
ют друг друга. Траектория процесса оказывается с большой вероятностью
близкой к решению усредненного разностного уравнения, которое можно на-
звать детерминированной дискретной моделью исходной системы. Можно
показать, что порядок точности аппроксимации траекторий исходной систе-
мы модельными не изменится, если перейти от дискретной модели к непре-
рывной, устремив к нулю шаг дискретизации. Полученное обыкновенное диф-
ференциальное уравнение будем называть детерминированной непрерывной
моделью исходной системы. Наряду с детерминированной моделью, дающей
первое приближение к исходной системе, можно построить семейство стохас-
тических непрерывных моделей, описываемых стохастическими дифферен-
циальными уравнениями и предоставляющих более точную аппроксимацию
вероятностных характеристик исходной системы. Таким образом, вместо ре-
шения задач анализа или синтеза для исходной системы можно попытаться
решить аналогичную задачу для ее детерминированной или стохастической
непрерывной модели, рассчитывая на то, что новая задача окажется проще
первоначальной. Эта замена составляет сущность метода непрерывных мо-
делей, которому посвящены многочисленные публикации, начиная с [13-15].
Этому методу посвящена и основная часть настоящего обзора. Цель обзо-
ра двоякая — познакомить читателя с перспективным (хотя и не новым)
методом исследования и проследить историю его развития. Более подробно
обоснование и применение метода непрерывных моделей и обзор публикаций,
вышедших до 1981 г., рассматриваются в [16]. Краткий обзор более поздних
публикаций представлен в [17, 18]. В качестве объединяющего термина для
метода дискретных моделей и метода непрерывных моделей будем исполь-
зовать термин метод усредненных моделей, поскольку усреднение правых
частей является в обоих случаях ключевым элементом.
4
Поясним общую идею метода на простом иллюстративном примере поиска
единственного корня неубывающей функции.
Пусть g(x) — известная непрерывно дифференцируемая функция. Для
итеративного (рекуррентного) поиска ее корня можно воспользоваться про-
цедурой:
(1.1)
θk =θk-1 - αg(θk-1)
с фиксированным, достаточно малым коэффициентом α > 0, в которой θ0
выбираемое пользователем начальное приближение иθk — текущая оценка
на итерации k = 1, 2, . . .
Если начальное значениеθ0 выбрано достаточно близко к корню θ функ-
ции g(x), то процедура гарантирует сходимость оценок к θ при предположе-
ниях о том, что g(x) < 0 при x < θ, g(x) > 0 при x > θ, производная функции
ограничена и g(x) > 0 в некоторой окрестности точки θ [19]. Вообще говоря,
эта процедура не требует и дифференцируемости функции g(x).
Обозначим через E символ математического ожидания. При наблюдениях
функции g(x) с помехами в алгоритме (1.1) вместо g(θk-1) можно пользо-
ваться только зашумленными данными Yk = G(wkk-1) — реализовавшими-
ся значениями некоторых случайных величин G(w10), G(w11), . . . Соот-
ветствующий алгоритм для решения задачи о поиске корня функции g(x) =
= EG(w,x) был предложен в 1951 г. в [20]:
θk =θk-1 - αkYk,
с уменьшающейся до нуля последовательностью параметров (размеров) ша-
говk}, выбираемой пользователем таким образом, чтобы удовлетворялись
соотношения:
αk > 0,
αk = ∞,
α2k < ∞.
k
k
Этот алгоритм называют алгоритмом Роббинса-Монро (РМ).
Покажем (как в [21]), что помехи с нулевым средним и ограниченной дис-
персией не влияют на асимптотическое поведение алгоритма при k → ∞.
С одной стороны, при больших значениях k шаг алгоритма αk 0 и зна-
ченияθk меняются медленно, с другой — для достаточно малого ϵ > 0 опре-
k+Kϵ
k
делим Kϵk так, чтобы
αi ≈ ϵ.
i=k
Алгоритм РМ можно переписать в виде
(
)
θk =θk-1 - αkg(θk-1) + αk g(θk-1) - Yk
А значит,
θk+Kϵkk-1 ≈ -ϵg(θk-1) + error,
5
где
k+Kϵk
(
)
error =
αi g(θi-1) - Yi
i=k
Если предположить, что помехи {Yk - g(θk-1)}k=1,2,... представляют собой
последовательность ортогональных случайных величин с нулевыми средни-
ми значениями и ограниченной дисперсией σ2(θk-1), тогда для дисперсии
ошибки имеем
2
k+Kϵk∑ (
)
n+Nϵn
E αi yi - g(θi-1)
=
O(α2i) = O(ϵ)αk.
i=k
i=n
На итерациях из интервала [k, k + Kϵk) для малых ϵ и больших k среднее из-
менение значения параметра более существенно, чем “error”. Следовательно,
асимптотическое поведение оценок почти наверное совпадает с асимптоти-
ческим поведением некоторого решения обыкновенного дифференциального
уравнения
θ=-g(θ).
При дополнительных ограничениях можно показать, чтоθk → θ с вероят-
ностью единица, если θ является асимптотически устойчивой точкой этого
уравнения.
Несколько слов об истории подхода.
Первые результаты по обоснованию перехода от исходной дискретной сто-
хастической системы к ее упрощенной усредненной модели были получены в
начале 1970-х гг. независимо несколькими авторами. С. Меерковым в [22] пе-
реход к усредненной модели марковской цепи был проведен на основе метода
усреднения Крылова-Боголюбова. Аналогично 1-й и 2-й теоремам Боголю-
бова сходимость по вероятности решений исходной и усредненной систем на
конечном временном интервале и близость траекторий на бесконечном интер-
вале в предположении асимптотической устойчивости усредненной модели
были установлены для независимых возмущений.
В январе 1973 г. Д.П. Деревицкий и А.Л. Фрадков доложили первые ре-
зультаты по построению и обоснованию детерминированной и стохастиче-
ской непрерывных моделей на Всесоюзной школе по адаптивным системам
Я.З. Цыпкина в Агверане [23] и представили статью в журнал “Автоматика и
телемеханика”. В июне 1973 г. А.Л. Фрадков получил приглашение Я.З. Цып-
кина выступить с этой работой на его семинаре3. На семинаре произошло
3 Я (А.Л. Фрадков) был тогда еще совсем молодым, еще даже не аспирантом, это было
первое мое приглашение и первое выступление перед маститыми учеными. Но доброжела-
тельное отношение Я.З. Цыпкина победило волнение и все прошло хорошо, статью приняли
к публикации. Так что можно сказать, что Я.З. Цыпкин поддержал развитие этого метода
еще в его колыбели. Я.З. Цыпкин поддержал и публикацию книги [16], став ее ответствен-
ным редактором (примечание А.Л. Фрадкова)
6
знакомство с молодым шведом Л. Льюнгом из Линчепинга, стажировавшим-
ся в то время в Институте проблем управления. Оказалось, что в то время у
Льюнга уже сформировались основные идеи его результатов по исследованию
процессов стохастической аппроксимации при зависимых возмущениях. Усло-
вия убывания шага процесса позволяли более тесно связать асимптотические
свойства системы и ее модели. Статья Деревицкого и Фрадкова [13] вышла в
начале 1974 г., а Льюнг в том же году представил свои результаты на конфе-
ренции в Будапеште [24]. Опубликованная позже статья [15] имела большой
резонанс (781 цитирование на 11.04.2019 в БД Web of Science) и была даже
включена в число 25 наиболее влиятельных статей ХХ в. по автоматическому
управлению [25]. Авторам [13] повезло меньше, но иногда этот подход назы-
вают Derevitskii-Fradkov-Ljung (DFL)-scheme [26]. Интересно отметить, что в
опубликованной в 1973 г. статье Б.Т. Поляка и Я.З. Цыпкина [27] для доказа-
тельства результатов использовалась функция Ляпунова, устанавливающая
асимптотическую устойчивость усредненной непрерывной модели, однако са-
ма модель не была введена. Аналогично в работах по методу усреднения в
стохастических системах и его применению к стохастической аппроксима-
ции [28, 29] как исходная, так и аппроксимирующая системы непрерывны, а
дискретные модели фактически не вводилась и не исследовались.
Основной текст обзора организован следующим образом. В разделе 2 да-
но формальное описание метода непрерывных моделей. В разделе 3 собраны
результаты, дающие условия близости процессов в исходной системе и ее де-
терминированной модели. Раздел 4 посвящен связи асимптотических свойств
системы и ее детерминированной модели. Стохастические непрерывные мо-
дели описываются в разделе 5. В разделе 6 метод усредненных моделей раc-
пространяется на гибридные (дискретно-непрерывные) системы. В последую-
щих разделах рассматриваются применения и обобщения метода и смежные
вопросы. В разделе 7 описываются результаты по сходимости градиентных
алгоритмов при зависимых помехах. В разделе 8 приведены обобщения на
системы с нелипшицевыми правыми частями и с неявным вхождением шага.
Раздел 9 посвящен распространению метода на сетевые системы, а в разде-
ле 10 собраны сведения о некоторых применениях. В разделе 11 приведены
два иллюстрирующих примера.
2. Описание метода непрерывных моделей
Будем рассматривать дискретные системы, описываемые стохастическими
разностными уравнениями вида
(2.1)
zk+1 = zk + αkF(zk,fk
),
k = 0,1,...,
где zk Rn — вектор состояния системы, fk Rm — стационарная последова-
тельность случайных векторов внешних воздействий (помех), αk — параметр
шага системы. Усредним правые части (2.1) по fk при фиксированном zk и
построим усредненную дискретную систему
(2.2)
zk+1 = zk + αkA(zk),
k = 0,1,...,
7
где A(z) = EF (z, fk) (предполагается, что математическое ожидание суще-
ствует и не зависит от k). Теперь перейдем к непрерывному времени и по-
строим дифференциальное уравнение непрерывной системы
dz
(2.3)
= A(z).
dt
Уравнение (2.3) будем называть детерминированной или усредненной непре-
рывной моделью исходной дискретной системы (2.1), а разностное уравне-
ние (2.2) — детерминированной или усредненной дискретной моделью. Если
последовательность fk не стационарна, но для каждого z существует пре-
дел A(z) = limk→∞ EF (z, fk), то также можно построить непрерывную мо-
дель (2.3). Разумеется, что для формулировки точных утверждений на функ-
цию A(z) следует наложить условия, гарантирующие существование и един-
ственность решений (2.3).
Возможность использования модели (2.3) для изучения исходной систе-
мы (2.1) обуславливается тем, что при выполнении некоторых предположе-
ний (см. далее) решения zk системы (2.1) при малых αk близки в определен-
ном смысле к решению z(t) модели (2.3), взятому в момент времени
(2.4)
tk =
αi.
i=0
Начальные условия в (2.1) и (2.3) взяты одинаковыми: z(0) = z0. Соотноше-
нием (2.4) в дискретной системе (2.1) вводится фиктивное (эквивалентное)
время. Применение модели (2.3) для изучения (2.1) выполняется в два этапа:
а) построение модели;
б) изучение модели (аналитическое или численное).
Например, возможные предельные точки процесса zk можно приблизить, ре-
шая уравнение A(z) = 0. В этом случае аналитическое решение (если оно
возможно) будет проще, а численное решение потребует меньшего количества
вычислений. В частности, устойчивая предельная точка может быть опреде-
лена путем численного интегрирования (2.3) с постоянным или увеличиваю-
щимся параметром шага. Это более экономично, чем моделирование исходной
системы (2.1), где часто αk 0 при k → ∞. Если требуется оценить случай-
ное время попадания траектории zk в окрестность состояния равновесия, то
в первом приближении можно взять время попадания в ту же окрестность
решения z(tk) детерминированной модели (2.3) и т.д. Отметим, что в задачах
адаптации вектор zk обычно представляет собой вектор настраиваемых коэф-
фициентов, т.е. вектор текущих оценок коэффициентов объекта управления
или некоторого “идеального” регулятора, а система (2.1) описывает алгоритм
адаптации.
Форма результатов, обосновывающих применимость метода непрерывных
моделей, зависит от тех свойств исходной системы, которые необходимо ис-
следовать. Если исследователя интересует поведение системы на конечном
или бесконечном промежутке времени (задача анализа динамики), то нужны
8
оценки степени близости траекторий (2.1) и (2.3). Если же предметом иссле-
дования являются асимптотические свойства системы (устойчивость, дисси-
пативностъ и т.д.), то нужны условия, при которых наличие этих свойств у
системы (2.1) следует из наличия аналогичных свойств у модели (2.3).
Сложность обоснования метода зависит от характера возмущений fk.
Простейший случай — независимость и одинаковая распределенность век-
торов fk. Этот вариант возникает, например, в задачах идентификации и
адаптивного управления для статических объектов. Если объект управления
динамический, то векторы fk (векторы состояния объекта) становятся зави-
симыми. Для обоснования метода в этом варианте приходится предполагать,
что зависимость между fk и fl ослабляется с ростом величины k - l. Условия
ослабления зависимости (условия перемешивания) получили распростране-
ние в предельных теоремах теории вероятностей [30]. Они выполняются, в
частности, если fk порождается линейным разностным уравнением
(2.5)
fk+1 = Gfk +k,
в котором ηk — независимые одинаково распределенные случайные векторы,
а матрица G устойчива (все ее собственные числа по модулю меньше едини-
цы). Такой случай встречается в задачах идентификации линейных динами-
ческих систем. В терминологии метода усреднения [1, 12] можно сказать, что
в системе (2.1), (2.5) компоненты вектора zk (настраиваемые коэффициентов)
являются медленными переменными, а компоненты fk (фазовые координаты
системы) являются быстрыми переменными.
Еще более сложные задачи возникают, когда динамика быстрого движе-
ния может зависеть от медленных переменных. Пусть, например, возмущения
вместо соотношений (2.5) описываются уравнением
(2.6)
fk+1 = G(zk)fk + B(zk)ηk.
Именно этот случай характерен для задач адаптивного управления, в кото-
рых поведение объекта управления определяется значениями настраиваемых
параметров zk. Чтобы построить непрерывную модель, нужно рассмотреть
уравнение быстрого движения при “замороженных” медленных переменных
(2.7)
fk+1(z) = G(z)fk(z) + B(z)ηk
и положить A(z) = limk→∞ EF (z, fk(z)) в модели (2.3). При этом правая
часть (2.3) будет определена лишь для таких z, для которых указанный пре-
дел существует. Существование предела и слабая зависимость векторов fk(z)
обеспечены, например, если векторы ηk независимы и одинаково распределе-
ны, а матрица G(z) — устойчива. Отметим, что усреднение быстрых движе-
ний в системе (2.1), (2.6) приводит к упрощенной модели (2.3) пониженного
порядка. При таком подходе система (2.1), (2.6) рассматривается как сингу-
лярно возмущенная [2, 5-7] по отношению к (2.3).
В ряде случаев, однако, разделение быстрых и медленных движений в си-
стеме (а следовательно, и понижение порядка модели (2.3)) неправомерно.
9
Рассмотрим, например, задачу адаптивной стабилизации линейного непре-
рывного объекта
dx
(2.8)
= Ax + bu(t) + η(t)
dt
при помощи дискретного адаптивного регулятора
{ u(t) = uk = θTkxk, tk t < tk+1,
(2.9)
θk+1 = θk + αkΦ(θk,xk).
Здесь x(t) — вектор состояния объекта, xk = x(tk), uk, θk — значения управ-
ления и настраиваемых коэффициентов на промежутке [tk, tk+1], η(t) — слу-
чайное возмущение, Eη(t) = 0, tk = kh, k = 0, 1, . . . — моменты коррекции зна-
чений uk, θk. Если время h = tk+1 - tk между последовательными моментами
коррекции мало, то изменение вектора x(t) за это время тоже будет мало. По-
этому, приводя уравнение объекта к дискретной форме (2.6), получаем мат-
рицу G(zk), близкую к единичной. Степень зависимости между векторами xk
и xl при уменьшении h будет расти даже в случае устойчивой матрицы A. Си-
стему (2.8), (2.9) можно рассматривать как сингулярно возмущенную лишь
при αk, малых по сравнению с h. Такое требование приводит к неоправданно-
му замедлению процесса адаптации, и рассмотренная выше схема построения
непрерывной модели становится неприемлемой.
В описанных задачах можно построить непрерывную модель того же по-
рядка, что и исходная система [14]. Предположим, например, что возмуще-
ние η(t) (2.8) центрировано: Eη(t) = 0, а шаг αk в алгоритме адаптации про-
порционален интервалу выборки h, т.е. αk = αh. Тогда в качестве непрерыв-
ной модели естественно взять систему
dx
= Ax + bu, u = θTx,
dt
(2.10)
= αΦ(θ,x),
dt
по отношению к которой исходная система (2.8), (2.9) регулярно возмущена.
В этом случае не происходит разделения движения в (2.8), (2.9) на быстрые
и медленные компоненты.
Перейдем к формулировке результатов, обосновывающих применимость
метода непрерывных моделей. Из приведенных сведений вытекает, что эти
результаты делятся на две группы: 1) утверждения о связи асимптотических
свойств исходной системы и модели; 2) установление близости статистических
характеристик исходного и модельного процессов.
3. Близость траекторий исходной и модельной системы
Перечислим некоторые результаты, дающие оценки точности аппрокси-
мации траекторий исходной системы (2.1) траекториями детерминированной
10
модели (2.3). Первое утверждение относится к случаю независимых стацио-
нарных возмущений fk и правых частей модели (2.3), удовлетворяющих гло-
бальному условию Липшица. Положим b(z) = E∥F (z, fk)-A(z)2. Пусть zk
решение системы (2.1), а z(tk) — решение системы (2.3) с тем же начальным
условием: z(t0) = z0.
Теорема 1
[13]. Пусть векторы fk независимы и одинаково распределе-
ны и выполняются следующие условия:
(3.1)
A(z) - A(z)< L1
z - z,
(
)
(3.2)
b(z) L2
1 + ∥z∥2
Тогда существуют такие числа C1 > 0 и C2 > 0, что при 0 αk α,
k = 0,1,...,N - 1, выполняется неравенство
(3.3)
E max ∥zk - z(tk)2 C1eC2tN
α.
1tktN
Утверждения, близкие к теореме 1, имеются в [22, 31]. В основополагающей
публикации [31] устанавливается сходимость по вероятности траекторий (2.1)
и (2.3), а в [22] получены оценки вероятности выхода траектории (2.1) из
ε-трубки решения zk детерминированной дискретной модели
(3.4)
zk+1 = zk + αkA(zk
).
В теореме 1 утверждается о близости в среднеквадратическом траекто-
рий (2.1) и (2.3) равномерно на конечном промежутке времени, т.е. при фик-
сированном tN среднеквадратическое отклонение траектории исходной систе-
мы от траектории модели имеет порядок квадратного корня из максималь-
ного размера шага α. С ростом промежутка времени tN точность оценки
быстро падает и это по существу. Аналогичный результат справедлив и для
слабо зависимых возмущений fk. В следующем определении понятию слабой
зависимости придается точный смысл.
Определение 1
[30]. Пусть fk, k = 0, 1, . . . , — случайный процесс и
Flk — σ-алгебра, порожденная значениями fr, k r l. Говорят, что про-
цесс fk удовлетворяет условию сильного перемешивания, если
(3.5)
supsup|Eξη - EξEη| = ζr ---→
0,
r→∞
k ξ,η
где ξ — случайная величина, измеримая4 относительно Fk0, η — случайная
величина, измеримая относительно F∞k+r, причем |ξ| 1 и |η| 1 с вероят-
ностью единица. Функцию ζr называют коэффициентом перемешивания.
Теорема 2. Пусть векторы fk удовлетворяют условию сильного пере-
мешивания, E∥F(z,fk)8 CR < ∞ при ∥z∥ < R и
(3.6)
1/2k
< ∞.
k=1
4 Измеримость ξ относительно σ-алгебры Flk означает, что значения случайной величи-
ны ξ полностью определяются значениями fr при k r l.
11
Предположим, что существует число L > 0 и область Ω Rm такие, что
fk Ω с вероятностью единица и
(3.7)
∥F (z, f) - F (z, f) L∥z - z
для всех f ∈ Ω.
Тогда существуют C3 > 0 и C4 > 0, такие что
(3.8)
E max ∥zk - z(tk)2 C3eC4tN α
0tktN
для 0 αk α.
Доказательство теоремы 2 приведено в Приложении. Отметим, что усло-
вие (3.6) выполняется, например, если fk порождаются уравнением (2.5) при
устойчивой матрице G и ограниченном fk, поскольку в этом случае коэф-
фициент перемешивания процесса ζk убывает экспоненциально: ζk Cζ qk,
Cα > 0, 0 < q < 1.
Если модель (2.3) обладает единственным экспоненциально устойчивым
в целом состоянием равновесия z, то можно получить оценку близости на
бесконечном промежутке. Как известно [32], достаточным (а при некотором
уточнении и необходимым) условием экспоненциальной устойчивости в целом
точки z является существование дважды непрерывно дифференцируемой
функции V (z), удовлетворяющей при некоторых положительных κ1, κ2, κ3
неравенствам5
(3.9)
V
1
V (z),
(3.10)
∥∇2V (z) κ2,
V (z) κ3∥z - z2,
где
V (z) = ∇V (z)TA(z) — производная функции V (z) вдоль траектории мо-
дели (2.3).
Теорема 3. Пусть выполняются условия теоремы 1 и существует
функция V (z), удовлетворяющая (3.9), (3.10).
Тогда для некоторых C5 > 0 и β > 0 справедливы неравенства
(3.11)
E∥zk - z(tk)2 C5αβ
,
k = 0,1,...
Более сложные процессы будут иметь место, если модель (2.3) обладает
несколькими устойчивыми состояниями равновесия z1), . . . , z∗r). В этом слу-
чае становятся возможными переходы траекторий исходной системы между
областями притяжения точек z1), . . . , z∗r), происходящие “вопреки” усреднен-
ному движению и описываемые теоремами о больших уклонениях [11, 12].
Вероятность перехода за конечное время положительна, хотя и весьма мала,
поэтому на бесконечном промежутке времени переходы происходят с вероят-
ностью единица.
5 Через ∇V (z) обозначается градиент функции V (z), а через2V (z) — матрица ее
вторых производных.
12
Пусть для простоты αk ≡ α > 0. Пользуясь методами [12, 30], можно по-
казать, что при малых α и при небольших дополнительных предположени-
ях о процессах zk, fk переходы траекторий (2.1) между окрестностями то-
чек z∗i) описываются цепью Маркова с переходными вероятностями pij =
= exp(-vij) (с точностью до логарифмической эквивалентности). Числа
vij > 0 определяются из решения некоторой вариационной задачи. Очевид-
но, что если vij > vij , то pij/pij 0 при α → 0. Поэтому при малых α
первый выход из окрестности точки z∗i) с подавляющей вероятностью про-
изойдет в окрестность точки z∗i1), где индекс i1 = l(i) определяется из усло-
вия vil(i) = mink=l vik. Из окрестности z∗i1) траектория перейдет в окрест-
ность z∗i2), где i2 = l(i1) и т.д., пока состояния не начнут повторяться. Та-
ким образом, все точки z∗i) разобьются на циклы. Переходы между циклами
происходят еще реже, чем редкие переходы внутри циклов. Тем самым фор-
мируются циклы 2-го ранга и т.п.
4. Связь асимптотических свойств исходной системы
и детерминированной модели
Рассмотрим асимптотическую устойчивость и диссипативность6 систе-
мы (2.1) (в среднеквадратическом смысле или почти наверное). Характер свя-
зи асимптотических свойств системы (2.1) и модели (2.3) зависит от выпол-
нения условия αk 0 при k → ∞. Если αk 0 (например, если αk ≡ α > 0),
то даже при экспоненциально устойчивой модели (2.3) с единственной пре-
дельной точкой исходная система (2.1) будет, вообще говоря, только дисси-
пативной (в среднеквадратическом)7 . При этом предельная дисперсия zk,
как следует из [34], стремится к нулю при α → ∞. Если же модель (2.3)
лишь диссипативна (в условиях теоремы 3 неравенство (3.9) заменяется на
V (z)1V (z) + κ0), то при малых α система (2.1) также будет диссипа-
тивной, причем предельная дисперсия zk не будет стремиться к нулю при
α → 0.
Более тесно связаны свойства систем (2.1) и (2.3) при αk 0. В этом
случае траектории (2.1) и (2.3), грубо говоря, сближаются при k → ∞ и си-
стема (2.1) оказывается устойчивой, если устойчива модель (2.3). Приведем
точную формулировку для случая, когда динамика быстрого движения не
зависит от медленных переменных.
Теорема 4. Пусть существуют область Ω Rn, дважды непрерывно
дифференцируемая при z ∈ Ω функция V (z), целое число p 1 и число ε :
0 < ε < 1, удовлетворяющие условиям:
6 Под диссипативностью динамической системы будем понимать ограниченность всех ее
решений и существование ограниченного множества D такого, что все решения стремятся
к D при t → ∞.
7 Для отдельных классов процессов исходная система (2.1) может, конечно, обладать
и свойствами устойчивости (см. [33, 34]). Например, (2.1) будет при достаточно малом α
асимптотически устойчивой в среднеквадратическом, если b(z) L2∥z -z2 (случай муль-
типликативных возмущений).
13
1. Для всех z ∈ Ω и f ∈ Rm функция F (z, f) непрерывно дифференцируема
по z;
2. V (z) 0 и
V (z) 0 для z ∈ Ω, где
V (z) — производная функции V (z) в
силу уравнения непрерывной модели (2.3);
3. Для почти всех траекторий zk системы (2.1) существует последо-
вательность ks → ∞ такая, что zks Ω, где Ω — некоторое ограниченное
замкнутое подмножество Ω;
4. Числа αk в (2.1) удовлетворяют условиям:
(4.1)
αk αk+1,
αk
= ∞,
k=0
(4.2)
α2pk
< ∞;
k=0
5. Последовательность fk почти наверное ограничена, обладает свой-
ством сильного перемешивания, и коэффициент перемешивания ζk удовле-
творяет соотношению
(4.3)
αp-1ζεk
< ∞.
k-1
Тогда траектории (2.1) с вероятностью единица либо сходятся к мно-
жеству Ω0 = {z ∈ Ω :V (z) = 0}, либо имеют предельную точку на грани-
це Ω. Последний вариант исключается, если множество Ω0 ограничено и
замкнуто.
Отметим, что в случае когда система (2.1) линейна, а возмущения fk опи-
сываются марковской цепью, связи между устойчивостью системы (2.1) и
непрерывной модели (2.3) были описаны в [33]. Аналоги теоремы 4 для алго-
ритмов типа стохастической аппроксимации и независимых fk были описаны
в [27, 34, 35]. Результаты, близкие к теореме 4 были получены в [15, 36], при-
чем в [15] был также рассмотрен случай, когда уравнение быстрых движений
зависит от медленных переменных.
5. Стохастические непрерывные модели
До сих пор рассматривалась детерминированная непрерывная модель сто-
хастической системы (2.1), описываемая обыкновенными дифференциальны-
ми уравнениями (2.3). Оценка (3.3) показывает, что отклонения траекторий
системы (2.1) от траекторий модели (2.3) имеют порядок
√αk, где αk — па-
раметр шага в (2.1). Эти отклонения порождаются случайными флюктуа-
циями траектории (2.1) относительно своей систематической составляющей.
Естественно попытаться построить более точную непрерывную модель систе-
мы (2.1), учитывающую случайные флюктуации. С помощью такой модели
можно надеяться получить более точные количественные характеристики ис-
ходного процесса, которые нельзя получить по детерминированной модели
14
(например, детерминированная модель не позволяет оценить установившую-
ся ошибку линейного алгоритма адаптации с постоянным шагом в условиях
помех [13]). Будем называть модели, учитывающие случайность стохастиче-
скими непрерывными моделями или просто стохастическими моделями.
Удобным аппаратом описания и исследования стохастических непрерыв-
ных моделей является теория стохастических дифференциальных уравнений,
для записи которых будем использовать форму Ито [10]:
(5.1)
dz(t) = a(z, t)dt + D(z, t)dW (t),
где z(t) Rn, a(·) — n-мерный вектор сноса, D(·) — (n × r)-матрица диффу-
зии, dW (t) — стохастический дифференциал Ито от r-мерного винеровского
процесса с независимыми компонентами W (t).
Как известно, при выполнении условий гладкости и ограниченного роста
функций a(·) и D(·) уравнение (5.1) имеет единственное решение z(t), которое
является диффузионным марковским процессом. Процесс z(t) определяет-
ся его локальными характеристиками: вектором первых и матрицей вторых
условных моментов приращений Δz(t) = z(tt)-z(t). Эти характеристики
имеют следующую форму:
(5.2)
E{Δz(t)|z(t) = z} = a(z, tt + Ot3/2
),
(5.3)
E{Δz(tz(t)T|z(t)} = D(z, t)D(z, t)TΔt + Ot3/2
),
где через Otr) обозначается величина, стремящаяся к нулю не медлен-
нее Δtr при Δt → 0. Очевидно, что детерминированную модель (2.3) можно
записать в виде (5.1) при a(z, t) = A(z) и D(z, t) = 0. Пусть z(t) — решение
детерминированной модели (2.3) с начальным условием z(0) = z0. Тогда при-
ращение z(t) за время αk = tk+1 - tk близко при малом αk к условному сред-
нему приращения исходного процесса:
E{zk+1 - zk|zk = z} = αkEF (z, fk) = αkA(z) ≈ z(tk+1) - z(tk)
при z(tk) = z. Аналогично
{
}
E
(zk+1 - zk)(zk+1 - zk)T|zk = z
[z(tk+1) - z(tk)][z(tk+1) - z(tk)]T,
причем в обоих случаях приближенные равенства верны с точностью поряд-
ка α2k.
Простейший вариант стохастической модели получается, если выбрать
в (5.1)
(5.4)
a(z, t) = a(t) = A(z(t)), D(z, t) = D(t) =
√αk ·B(z(t))
при tk t tk+1, где B(z) = Eh(z, fk)h(z, fk)T, h(z, fk) = F (z, fk) - A(z),
B(·) — квадратный корень из симметричной неотрицательной матри-
цы B(·), z(t) - решение (2.3) с начальным условием z(t0) = z0. Коэффициен-
ты (5.4) вычисляются вдоль траектории детерминированной модели. Можно
15
показать, что при таком построении стохастической модели вторые услов-
ные моменты приращений ее траекторий близки к соответствующим харак-
теристикам исходной системы (2.1) с точностью порядка α3k, т.е. с большей
точностью, чем для детерминированной модели.
Если обозначить через z(t) решение уравнений (5.1), (5.4), то можно запи-
сать приближенное равенство
(5.5)
z(tk+1) - z(tk) ≈ αkA(z(tk)) +
αkB(z(tk))ηk,
где ηk = W (tk+1) - W (tk) — приращения винеровского процесса, являющиеся
независимыми нормальными случайными векторами с ковариационной мат-
рицей EηkηTk = αkIr. Соотношение (5.5) используется, например, при стати-
стическом моделировании системы (5.1), (5.4). Из (5.5) видно, что при замене
исходной системы (2.1) стохастической моделью (5.1), (5.4) происходит “нор-
мализация” флюктуаций: замена реальных флюктуаций нормально распре-
деленными с той же ковариационной матрицей.
Несмотря на простоту построения, стохастическая модель (5.1),
(5.4)
неудобна для применений, поскольку при получении аналитических или чис-
ленных оценок решений (5.1), (5.4) требуется предварительно находить ре-
шения детерминированной модели (2.3). От этого недостатка свободна стоха-
стическая модель, получающаяся, если в (5.1) выбрать
(5.6)
a(z, t) = A(z) и D(z, t) =
αk
B(z)
при tk t tk+1. Нетрудно показать, что модель (5.1), (5.6) с такой же точ-
ностью аппроксимирует локальные характеристики исходной системы (2.1),
как и модель (5.1), (5.4). Однако вместо (5.5) для траекторий (5.1), (5.6) спра-
ведливо соотношение
(5.7)
z(tk+1) - z(tk) ≈ αkA(z(tk)) +
αkB(z(tk))ηk,
где z(tk) — решение уравнения (5.1), (5.6). При использовании (5.1), (5.6)
надобность в нахождении траектории детерминированной модели (2.3) отпа-
дает. При замене системы (2.1) ее стохастической моделью аналитическое и
численное исследование упрощается. Это объясняется “частичным усредне-
нием” и “нормализацией” правых частей уравнений исходной системы. При-
меры получения аналитических оценок с помощью стохастической модели
приведены в [13, 37, 38].
Как уже отмечалось, точность аппроксимации локальных характеристик
системы (2.1) стохастической моделью (5.1), (5.6) по первым моментам имеет
порядок α2k, а по вторым моментам — порядок α3k. Оказывается, что можно
построить целое семейство стохастических моделей, дающих сколь угодно вы-
сокий порядок аппроксимации. Например, для построения модели, имеющей
порядок точности α3k как по первым, так и по вторым моментам, необходимо
изменить коэффициент сноса модели (5.1), (5.6). Модифицированная стоха-
стическая модель описывается уравнением
[
]
αk ∂A(z)
(5.8)
dz = In -
A(z)dt +
αk
B(z)dW(t)
2
∂z
16
при tk t < tk+1. Следует заметить, однако, что более точные модели явля-
ются менее удобными для применения, поскольку громоздкость уравнений
модели быстро растет с повышением ее точности.
6. Метод усредненных моделей для гибридных систем
В современных компьютерно-управляемых системах, в частности, в ки-
берфизических системах возникают ситуации, когда алгоритмы управления
или оценивания состояния физического объекта функционируют дискрет-
но во времени, тогда как сам объект функционирует в непрерывном вре-
мени. В этих ситуациях исходная система является гибридной (дискретно-
непрерывной). Естественно попытаться применить упрощенные (усреднен-
ные) модели для анализа и синтеза систем и в этих случаях. В частности, при
синтезе дискретной адаптивной системы с помощью ее непрерывной упро-
щенной модели возникает вопрос о сохранении свойств непрерывной систе-
мы при дискретизации алгоритмов управления и адаптации. Для решения
этого вопроса можно использовать метод, развитый в [13, 16] и позволяющий
установить, в частности, что если непрерывная упрощенная модель системы
обладает свойством экспоненциальной диссипативности, то исходная дискре-
тизированная система предельно диссипативна при ϵk 0 и оценка предель-
ного множества приближается к соответствующей оценке для непрерывной
модели.
Пусть управляемая система описывается пространственной моделью со-
стояний в непрерывном времени
(6.1)
x = F(x,θ,t) + ϕ(t),
где x ∈ Rn — вектор состояний системы, θ ∈ Rm — вектор управлений (или
вектор настраиваемых параметров), вектор-функция F (·) определена для
всех x ∈ Rn, θ ∈ Rm, t 0, кусочно-непрерывна относительно t и непрерывно
дифференцируема относительно x и θ, ϕ(t) — ограниченная вектор-функция
возмущений.
Пусть вектор управлений θ(t) обновляется в моменты времени tk =k,
k = 0,1,2,..., ϵk > 0, следующим образом:
{θ(tk),
tk t < tk+1,
(6.2)
θ(t) =
θk + ϵkΦ(xkk,tk), t = tk+1,
где xk = x(tk) и θk = θ(tk). Предполагается, что функция Φ(·) удовлетворяет
тем же условиям регулярности, что и F (·). Поскольку интерес заключает-
ся в анализе устойчивости или диссипативности (ограниченности решений)
системы (6.1), (6.2) для небольших ϵk > 0, естественно выбрать в качестве
упрощенной модели систему, в которой время непрерывно, а возмущения от-
брошены:
(6.3)
x = F(x,θ,t),
θ=Φ(x,θ,t).
17
Возникает вопрос: можно ли судить об устойчивости или аналогичных свой-
ствах системы (6.1), (6.2) по наличию соответствующих свойств у ее упро-
щенной модели (6.3). Ответ дается следующей теоремой [14] (см. также [16,
теорема 3.13]), для формулировки которой введем понятия экспоненциальной
диссипативности и предельной диссипативности для ϵk 0.
Под экспоненциальной диссипативностью системы Ż = F (z, t), z ∈ Rn, бу-
дем понимать существование гладкой функции V (z), вектора z Rn и таких
чисел ζ > 0, βi > 0, i ∈ 1, 2, 3, 4, что
(6.4)
V (z, t) -ζV (z, t) + β1,
∥∇2V (z, t) β2,
β3∥z - z ∥∇zV (z,t) β4∥z - z∥.
Легко видеть, что при выполнении условия (6.4) все траектории системы
для некоторых K1 и K2 удовлетворяют неравенству ∥z(t) K1e-ζt + K2, т.е.
стремятся к некоторому ограниченному множеству в пространстве состояний
системы.
Пусть ϵ = supk0 ϵk и
ϵk =. Систему (6.1), (6.2) будем называть
k=1
предельно диссипативной при ϵ → 0, если в фазовом пространстве системы X
существуют семейство множеств D0(ϵ) со свойствомϵ>0D0(ϵ) = X, ограни-
ченное множество D и число ϵ > 0 такие, что при 0 < ϵ ϵ все траектории,
выходящие из множества D0(ϵ), стремятся к множеству D при t → ∞.
Теорема 5. Пусть F(x,θ,t) удовлетворяет условию Липшица по x рав-
номерно по x и θ в любом ограниченном множестве, а модель (6.3) экспо-
ненциально диссипативна.
Тогда исходная система (6.1), (6.2) предельно диссипативна при ϵ → 0.
Преимущество теоремы 5 по сравнению с известными результатами (см.
ссылки в [39]) заключается в том, что для правых частей модели системы не
требуется выполнение глобального условия Липшица.
В частном случае, когда предельное множество состоит из одной точки,
В. Драган и А. Халанай получили в 1990 г. более тонкий результат: усло-
вия сохранения экспоненциальной устойчивости при дискретизации [40]. Рас-
смотрим непрерывную управляемую систему x = f(x, u), y = s(x), где x ∈ Rn,
u ∈ Rm, y ∈ Rl, с динамическим регулятором
w = g(w,y), u = U(w,y), где
w ∈ Rp, p > 0, замкнутая система управления будет описываться дифферен-
циальными уравнениями
(6.5)
x = f(x,U(w,s(x))),
w = g(w,s(x)).
Рассмотрим также систему из непрерывного объекта, замкнутого дискрет-
ным регулятором
(6.6)
x = f(x(t),u(t)), u(t) = uk, w(t) = wk, tkt < tk+1
(6.7)
uk = U(wk,s(x(tk))), wk+1 = wk + hg(wk,s(x(tk
))),
где tk = kh, h > 0, j = 0, 1, 2, . . .
18
Теорема 6
[40]. Пусть функции f, g, s, U
— локально-липшицевы и
(x, w) — равновесие системы (6.5), т.е. f(x,U( w,s(x))) = 0, g(w,s(x)) = 0.
Пусть существует область D, содержащая точку (x, w), и константы
α > 0, β 1 такие, что если (x(0),w(0)) ∈ D, то решение (x(t),w(t)) си-
стемы (6.5) удовлетворяет при t 0 неравенству
(6.8)
||x(t) - x|| + ||w(t) - w|| βe-αt
(||x(0) - x|| + ||w(0) - w||).
Пусть Br = {(x, w) : ||x- x||+||w- w|| r} и r > 0 такое, что Br ⊂D. Пусть
L > 0 — константа Липшица для всех функций f,g,s,U на компакте Br.
Тогда существует h > 0, зависящее от α, β, L и α > 0
β1, такое, что
(x(t), w(t)), t 0, есть решение системы (6.6), (6.7), и если (x(0),
w(0))
∈ Br/2β, то
(6.9)
||x(t) - x|| + || w(t) - w||
βe-αt
(||x(0) - x|| + || w(0) - w||).
7. Сходимость градиентных алгоритмов с зависимыми входами
Метод усреднения может быть эффективно применен к анализу диффе-
ренциально-разностных стохастических систем (6.1), (6.2). Сформулируем со-
ответствующий результат для практически важного случая, когда уравне-
ние (6.2) описывается алгоритмом градиентного типа, т.е. имеет вид
(7.1)
θk+1 = θk + αkθQ(θk,fk
),
где Q(·) — целевая функция, характеризующая достижение цели адаптации.
Важным условием стандартных теорем о сходимости градиентных алго-
ритмов [19] является независимость входных воздействий fk. Это условие
затрудняет использование стандартных теорем в задачах управления для
динамических систем, поскольку в системе (6.1), (6.2) векторы fk стохасти-
чески зависимы. Применение метода непрерывных моделей позволяет уста-
новить сходимость градиентных алгоритмов для случая зависимых воздей-
ствий. Однако полностью отказаться от условия независимости невозможно
и снова потребуем, чтобы последовательность входов fk удовлетворяла усло-
вию сильного перемешивания (см. определение 1 в разделе 3).
Напомним, что широкий класс случайных процессов, удовлетворяющих
условию сильного перемешивания образуют марковские процессы, порож-
денные устойчивыми стохастическими дифференциальными и разностными
уравнениями [30, 41]. В частности, это свойство имеет процесс fk Rn, по-
рожденный линейным уравнением (2.5), причем коэффициент перемешива-
ния процесса (2.5) экспоненциально убывает: ζrr, где c > 0 и 0 < ρ < 1.
Теорема 7. Пусть выполнены следующие условия:
1. Для каждого θ существует limk→∞ EQ(θ, fk) = J(θ), где функция J(θ)
непрерывно дифференцируема, J(θ) +∞ для ∥θ∥ → ∞ и множество Ω0 =
= : ∇J(θ) = 0} ограничено;
2. Существуют числа L > 0, κ > 0 и область D такие, что ∥∇θQ(θ, f)
κ,
(7.2)
∥∇θQ(θ, f) - ∇θQ(θ, f) L∥θ - θ
19
для каждого f ∈ D и f ∈ D с вероятностью единица;
3. Шаги αk алгоритма (7.1) при некотором p 2 удовлетворяют усло-
виям:
(7.3)
αk+1 αk,
αk = +∞,
αpk
< ∞;
k=0
k=0
4. Случайный процесс fk удовлетворяет условию сильного перемешивания
с коэффициентом перемешивания ζk и
(7.4)
kp-1ζ1/2k
< ∞;
k=0
5. Почти каждая траектория θk содержит ограниченную подпоследова-
тельность θks , s = 1, 2, . . .
Тогда θk Ω0 почти наверное при k → ∞.
Кроме того, можно показать, что если все точки из Ω0 изолированы, то-
гда θk → θ почти наверное, где θ — один из локальных минимумов функ-
ции J(θ).
Заключение теоремы 7 следует из более общего результата из [16], в ко-
тором устанавливаются условия, при которых устойчивость исходного стоха-
стического дифференциально-разностного уравнения (6.1), (6.2) следует из
устойчивости его непрерывной модели, которая имеет видθ = -∇J(θ) для
алгоритма (7.1). В свою очередь, для доказательства устойчивости модели
используется функция Ляпунова V (θ) = J(θ).
8. Дальнейшие результаты
Перечислим кратко некоторые обобщения результатов из разделов 3 и 4,
позволяющие расширить сферу применимости метода непрерывных моделей.
Прежде всего заметим, что теоремы 1—4 легко распространяются на случай,
когда исходная система описывается вместо (2.1) уравнением более общего
вида
(8.1)
zk+1 = Φ(zk,fkk
),
в котором8 EΦ(z, fk, α) = z + αA(z) + α2a(z, α). Например, утверждение тео-
ремы 1 для системы (8.1) останется верным [42], если будут выполнены усло-
вия (3.1), (3.2) и неравенство ∥a(z, α) L3(1 + ∥z∥). Отметим, что для систе-
мы (8.1) правую часть модели (2.3) можно определить соотношением A(z) =
= limα→0 α-1[EΦ(z, fk, α) - z].
В ряде задач (в частности, в задачах управления динамическими объекта-
ми) встречаются системы вида (2.1) или (8.1), для которых правая часть мо-
дели (2.3) не удовлетворяет глобальному условию Липшица (3.1). Примером
8 Для краткости записи будем рассматривать только стационарные последовательно-
сти fk .
20
такой системы может служить непрерывно-дискретная система (2.8), (2.9)
(ее уравнения можно привести к дискретной форме (8.1)). Правые части A(z)
непрерывной модели (2.10) содержат слагаемые вида θTx и, независимо от ви-
да алгоритма адаптации, имеют квадратичный порядок роста при ∥z∥ → ∞,
поскольку z = col(x, θ). Условие Липшица (3.1) для модели (2.10) выполняет-
ся лишь локально, т.е. в каждой ограниченной области ∥z∥ < r константа L1
в (3.1) своя: L1 = L1(r). Как известно, решения дифференциальных и раз-
ностных уравнений с быстро (сверхлинейно) растущими правыми частями
могут неограниченно расти за конечное время. Чтобы исключить эту воз-
можность, при формулировке утверждений, обосновывающих метод непре-
рывных моделей для локально-липшицевых систем, приходится накладывать
дополнительные требования. Однако даже при выполнении этих требований
оказывается, что степень малости шагов αk, при которой обоснована замена
исходной системы моделью, может зависеть от величины начальных условий
∥z0. Это значит, что близость траекторий (2.1) и (2.3) имеет место при αk
α < α(∥z0), где α(r) — убывающая скалярная функция, причем α(r) 0
при r → ∞. Кроме того, при исследовании асимптотических свойств исходной
системы приходится говорить не о диссипативности (2.1), а о ее предельной
диссипативности при αk 0.
В [14] показано, что система (2.1) предельно-диссипативна при αk 0, а в
случае независимых fk и локально-липшицевых A(z) выполняется неравен-
ство (3.3) при αk α < α(∥z0), если возмущения в (2.1) ограничены (точ-
нее, если ∥F (z, fk) - A(z) C) и модель (2.3) экспоненциально диссипа-
тивна (точнее, если существует функция V (z) 0, удовлетворяющая (3.10)
и неравенству
V (z)1V (z) + κ0). Аналогичные результаты справедливы
для систем вида (8.1) и для слабо зависимых fk.
В [43, 44] рассмотрены непрерывно-дискретные системы вида
(8.2)
dx(t) = A1(x(t), θ(tk))dt + σD(x(t), θ(tk
))dW (t),
{ θ(tk)
при tk t < tk+1,
(8.3)
θ(t) =
θ(tk) + hF (x(tk), θ(k), ηk) при t = tk+1,
где W (t) — винеровский процесс, ηk — независимы, tk = kh, h > 0, функция
D(x, θ) ограничена, а функции A1(x, θ) и A2(x, θ) = EF (x, θ, ηk) глобально
липшицевы. Стохастическое дифференциальное уравнение (8.2) понимается
в смысле Ито на каждом интервале [tk, tk+1]. Показано, что при σ2 L4h
решение z(t) = col(x(t), θ(t)) системы (8.2), (8.3) удовлетворяет неравенству
E∥z(t) - z(t)2 C6eC7T h,
где z(t) = col(x(t)
θ(t)) — решение уравнений модели
{
ˆ
dx/dt = A1(x,θ),
dθ/dt = A2(x,θ)
при z(0) = z(0). В [43] для систем (8.2), (8.3) построена также стохастическая
непрерывная модель вида (5.1), (5.6).
21
Наконец, основные результаты разделов 3-5 сохраняют силу для случая
нестационарной модели (2.3) (см. [45]) и для случая, когда модель (2.3)
имеет устойчивое многообразие состояний равновесия, на котором правая
часть A(z) терпит разрыв [46].
9. Непрерывные модели для сетевых систем
Рассмотрим усредненные и непрерывные модели для сетевых систем. В по-
следние два десятилетия в теории управления растет интерес к новым клас-
сам задач, характерных для сетевых систем управления: управление синхро-
низацией, консенсусом, групповым поведением агентов и т.д. Одной из важ-
ных задач является анализ многоагентных стохастических систем с нели-
нейной динамикой, неопределенностями в топологии и (или) в протоколе
управления, с шумами и задержками о состояниях агентов сети. В таких
сетевых системах целесообразно рассматривать задачу приближенного кон-
сенсуса. В [47] эта задача была детально изучена. Такие задачи актуальны
при анализе и управлении производственными сетями, многопроцессорными,
сенсорными, беспроводными или компьютерными сетями и другими система-
ми, состоящими из большого числа агентов. Для изучения таких стохастиче-
ских систем также используется метод усредненных моделей. Этот метод был
адаптирован для анализа различных типов информационных систем (см. на-
пример, [48-50]) и позволил уменьшить сложность анализа замкнутых стоха-
стических систем. В [47, 51, 52] верхние оценки среднеквадратичного расстоя-
ния между состояниями исходной стохастической системы и ее приближенной
усредненной модели были получены для разных случаев (например, случая
с задержками в измерениях или без них). Эти верхние границы были исполь-
зованы для получения условий достижения приближенного консенсуса.
Сформулируем некоторые результаты по методу усредненных моделей для
сетевых систем.
Рассмотрим сеть как множество агентов N = {1, 2, . . . , n}, которые вза-
имодействуют с соседями из множества соседей Ni = {j : (j, i) ∈ E}. Ди-
намическая топология сети моделируется последовательностью орграфов
{(N, Et)}t0, где Et ⊂ E меняется со временем. Соответствующие матрицы
смежности обозначаются At.
Предположим, что изменяющаяся во времени переменная состояния xit
R соответствует каждому агенту графа i ∈ N в момент времени t ∈ [0,T].
Его динамика описывается для дискретного временного случая как
(9.1)
xit+1 = xit + fi(xit,uit
),
t = 0,1,2,... ,T.
Чтобы сформировать стратегию управления, каждый агент использует
свое собственное состояние (возможно, зашумленное)
(9.2)
yi,it = xit + wi,it,
и если Nit =, то и зашумленные измерения о состояниях соседей, которые,
кроме того, приходят с задержками
(9.3)
yi,jt = xj
+wi,jt, j ∈Nit,
t-di,j
t
22
где wi,it, wi,jt — шум, 0 di,jt
d—целочисленнаязадержка
d 0 — макси-
мальная задержка.
В [47] рассматривался следующий протокол управления, называемый про-
токолом локального голосования:
(9.4)
uit = αt
bi,jt(yi,jt - yi,it
),
j∈Ni
t
где αt > 0 — размер шага протокола, bi,jt > 0 ∀j ∈Nit. Положим bi,jt = 0 для
других пар i, j и определим Bt = [bi,jt ] как матрицу протокола управления.
Для начала рассмотрим случай без задержек в измерениях
d = 0) [53, 54].
Перепишем динамику агентов в векторно-матричном виде:
(9.5)
xt+1 = xt + F(αt, xt, wt
),
где F (αt, xt, wt) — вектор размерности n:
···
(
)
.
(9.6)
F (αt, xt, wt
t
bi,j
(xjt - xit) + (wi,jt - wi,it)
) = fi xitt
Ni
j∈
t
···
Для анализа поведения стохастической системы при конкретном выборе
коэффициентов (параметров) в протоколе используется метод усредненных
моделей в форме [13], который применялся и в [47, 53-55]. Одной из осо-
бенностей применения метода для сетевых систем является то, что условие
асимптотической устойчивости непрерывной модели (2.3) в сетевых системах
не выполняется, уступая место частичной устойчивости. Для исследования
подобных случаев может быть использована следующая теорема [17], которой
предпошлем определение.
Определение 2. Пусть Ω, Ω0, Ω Ω0, — замкнутые подмножества
Rn и Ω состоит из равновесий системы (2.3). Множество Ω называется
Ω0-точечно устойчивым, если оно устойчиво по Ляпунову и любое решение,
начинающееся в Ω0, стремится к точке из Ω при t → ∞.
Теорема 8. Пусть выполнены условия Липшица и роста
(9.7)
∥A(z) - A(z) L1∥z - z∥, b(z) L2(1 + ∥z∥2
),
где b(z) = E∥F (z, fk) - A(z)2. Пусть существует гладкое отображение h :
Rn Rl и ограниченное множество Ω0 Rn, такое что rank∂h∂z = l для
z ∈ Ω = {z ∈ Ω0 : h(z) = 0} и множество Ω Ω0-точечно устойчиво. Пусть
существует дважды непрерывно дифференцируемая функция V (z) и поло-
жительные числа κ1, κ2, κ3 такие, что
(9.8)
V (z) -κ1V (z),
2V (z)
(9.9)
κ3, V (z) ≥ κ2||h(z)||2.
≤
∂z(i)∂z(j)
23
Тогда существуют числа
α > 0, K2 > 0,
0<ζ <1
такие, что для
0 αkα < α выполнены неравенства
(9.10)
E||yk - y(tk)||2 K2αζ
,
k = 1,2,...,
где yk = h(zk), y(tk) = h(z(tk)).
Теорема 8 дает верхнюю границу среднего квадрата расстояния между
текущим состоянием и предельным многообразием Ω = {z ∈ Ω0 : h(z) = 0}.
В рассматриваемом случае применение метода усредненных моделей со-
стоит в приближенной замене начального стохастического разностного урав-
нения (9.5) на обыкновенное дифференциальное уравнение
dx
(9.11)
= R(α, x),
где
1
x
···
1
(9.12)
R(α, x) = Rα,
=
fi(xi,ζsi(x))
,
α
···
xn
si(x) =
ai,jmax(xj - xi) = -di(Amax)xi +
ai,jmaxxj, i ∈ N,
j∈Nimax
j=1
где Amax — матрица смежности размеров n × n, n = n ×
d + 1).
В соответствии с
[13] траектории
{xt} из
(9.5)-(9.6) и
{x(τt)} из
(9.11)-(9.12) близки на конечном интервале времени. Здесь и далее τt = α0 +
+α1 +...+αt-1.
Предположим, что выполнены следующие условия:
B1. ∀i ∈ N функции fi(x, u) липшицевы по x и u: |fi(x, u) - fi(x, u)|
L1(Lx|x - x| + |u - u|), и для любого фиксированного x функция fi(x,·)
такая, что Exfi(x, u) = fi(x, Ex u). Последняя часть условия B1 выполнена,
если система почти аффинная по управлению.
Из условия Липшица следует, что скорость роста ограничена: |fi(x, u)|2
L2(Lc + Lx|x|2 + |u|2);
B2. а) ∀i ∈ N и j ∈ Nimax шумы wi,jt центрированы, независимы и имеют
ограниченную дисперсию E(wi,jt )2 σ2w;
б) ∀i ∈ N и j ∈ Nimax появление переменных дуг (j, i) в графе GAt — неза-
висимые случайные события;
в) ∀i ∈ N и j ∈ Nimax веса bi,jt в протоколе (9.4) — независимые случайные
переменные с bi,j = Ebi,jt, σi,jb = E(bi,jt - bi,j)2 < ∞.
В следующей теореме даны верхние оценки среднеквадратичного откло-
нения между исходной системой и ее усредненной непрерывной моделью.
Теорема 9. Если выполнены условия B1, B2 пп. а-в, ∀i ∈ N функ-
ция fi(x, u) гладкая по u, fi(x, 0) = 0 для любого x и 0 < ζt
ζ, то суще-
ствует α, такая что для α < α имеет место следующее неравенство:
(9.13)
E max
||xt - x(τt)||2 C1eC2τmax
α,
0τtτmax
24
где C1 > 0, C2 > 0 и α > 0 — некоторые константы.
В [47, 51] рассматривается также случай с задержками в измерениях, для
которого установлены верхние оценки среднеквадратичного расстояния меж-
ду исходной системой и ее усредненной дискретной моделью. Отметим, что
открытой остается задача распространения приведенных результатов на раз-
рывные модели, важные для экономических игр и распознавания образов
(некоторые частные случаи рассматриваются в [46, 56]).
10. Применения непрерывных моделей
Непрерывные модели использовались для анализа алгоритмов идентифи-
кации [13, 16, 21, 36, 57-65], алгоритмов оптимизации [16, 21, 66-68], алго-
ритмов случайного поиска [37, 42], фильтрации [57, 58, 69-71], адаптивного
управления [14, 16, 40, 43, 44, 63, 72-80], поиска собственных чисел случайных
матриц [81, 82]; поиска седловых точек а игровых задачах [22, 83]; алгорит-
мов децентрализованного распределения ресурсов [84], игр автоматов [22],
систем массового обслуживания [85], распознавания образов [13, 15, 46, 63];
обучения нейронных сетей [86] и др. Ряд последних публикаций открывают
новые области, связанные с сетями: анализ сходимости алгоритмов обучения
для управления покрытием мобильных датчиков в сенсорной сети [87], рас-
пределенное обучение и кооперативное управление в мультиагентных систе-
мах [88, 89], распределенное управление топологией в беспроводных сетях [90]
и др.
Еще один класс задач связан с рандомизацией систем. Например, в адап-
тивном управлении, при “подстройке” под минимизацию некоторой функ-
ции потерь f(x) появляется дополнительная возможность компенсации си-
стематических помех наблюдений (а не только “хороших статистических”) за
счет рандомизации в канале обратной связи [91-93]. В рандомизированых
вариантах метода стохастической аппроксимации на вход алгоритма пода-
ют текущую оценкуθn-1 вместе с некоторым центрированным независимым
рандомизированным возмущением Δn, а в качестве наблюдений беру
Yn =
= ΔnG(wn, θn-1n). В [94] для анализа состоятельности таких оценок и их
асимптотических свойств также используется описанный подход.
11. Примеры
Приведем примеры, иллюстрирующие применение непрерывных моделей.
Пример 1. Рассмотрим задачу идентификации линейного динамическо-
го объекта, описываемого уравнением
(11.1)
yk+1 +
aiyk+1-i =
biuk+1-i + vk-i,
i=1
i=1
где uk, yk — вход и выход объекта, доступные измерению в момент k, vk+1
неизмеряемое возмущение. Все величины в (11.1) скалярны. Последователь-
ности uk, vk, k = 0, 1, . . . , будем считать случайными и стационарными. Кро-
ме того, предположим, что объект (11.1) устойчив, т.е. все нули многочлена
25
a(λ) = λn + a1λn-1 + . . . + an по модулю больше единицы. Пусть для построе-
ния оценок ai,k,bi,k параметров объекта ai, bi выбран алгоритм градиентного
типа [95]:
ai,k+1 = ai,k - αkδk+1yk+1-i, i = 1, . . . n,
bi,k+1 =bi,k - αkδk+1uk+1-i, i = 1, . . . n,
(11.2)
δk+1 = yk+1 +
ai,kyk+1-i -
bi,kuk+1-i,
i
i
где αk 0, k = 0, 1, . . . Для исследования системы (11.1), (11.2) построим ее
детерминированную непрерывную модель. Если ввести обозначения:
zk = col(a1,k,... ,an,k,-b1,k,... ,-bn,k),
z = col(a1,... ,an,-b1,... ,bn),
gk = col(yk,... ,yk+1-n,uk,... ,uk+1-n),
то алгоритм (11.2) можно записать в виде
[
]
(11.3)
zk+1 = zk + αk
(zk - z)Tgk + vk+1
gk.
Усредняя правую часть (11.3) при фиксированном zk = z, получаем детерми-
нированную модель (2.3) в виде линейного дифференциального уравнения
(11.4)
dz/dt = -P (z - z
)+q,
где P = limk→∞ gkgTk, q = limk→∞ vk+1gk. Существование написанных преде-
лов обеспечивается устойчивостью объекта (11.1). Очевидно, что любое ре-
шение (11.4) будет стремиться к z при t → ∞, если
(11.5)
P > 0,q = 0.
Далее будем считать, что Evk = 0, Ev2k > 0, Ev8k < ∞, Eu8k < ∞ и последова-
тельности uk, vk состоят из независимых величин и взаимно независимы. При
этом соотношения (11.5) будут выполнены, а векторы fk = col(gk, vk+1) будут
удовлетворять условиям теоремы 2 (в силу устойчивости объекта (11.1)). Из
теоремы 2 следует, что при малых αk векторы zk будут близки в среднеквад-
ратическом равномерно на любом конечном промежутке [0, tN ] к векторам
k-1
z(tk) = z + e-p
i=0
αi (z0 - z). Отсюда можно получать различные прибли-
женные оценки скорости сходимости алгоритма (11.2), причем точность этих
оценок тем выше, чем меньше “шаги” αk.
Пусть теперь αk 0 так, что выполнены условия (4.1), (4.2), а векторы
uk,vk — почти наверное ограничены. Тогда выполнены условия теоремы 4, из
которой следует, что zk → z почти наверное, т.е. оценки zk являются сильно
состоятельными.
26
Пример 2. Рассмотрим задачу адаптивного управления непрерывным
объектом с передаточной функцией W (p) = κ/(τp + 1), описываемым урав-
нением
(11.6)
τ y + y = κu.
Управляющее воздействие u(t) вырабатывается дискретным регулятором и
считается кусочно-постоянным: u(t) = uk при kh t < (k + 1)h, где h > 0 —
шаг дискретности. Чтобы обеспечить высокое качество управления, величи-
ну h стараются выбирать, по возможности, малой. При этом поведение объ-
екта с достаточной точность может быть описано разностным уравнением
(11.7)
yk+1 = (1 - h/τ)yk + (κh/τ)uk,
где yk = (kh). Пусть целью управления является приближение выхода объ-
екта yk+1 к задающему воздействию rk = r(kh), где r(t) — некоторая ограни-
ченная кусочно-непрерывная функция. Легко видеть, что поставленная цель
достигается за один шаг, если закон управления выбран в виде
h-τ
τ
(11.8)
u∗k =
yk +
rk.
κh
κh
Однако закон (11.8) при уменьшении h приводит, очевидно, к неограничен-
ным значениям управляющего воздействия, что является неприемлемым для
практики. Причина неудачи заключается в выборе слишком “сильного” це-
левого условия, не учитывающего инерционность реального непрерывного
объекта (11.6).
Поставим более “мягкую” цель управления
(11.9)
yk+1 = g0yk + g1rk,
причем коэффициенты g0, g1 выберем так, чтобы уравнение (11.9) являлось
результатом дискретизации уравнения непрерывной эталонной модели
(11.10)
τ
y + y = r(t).
Это требование приводит к зависимости коэффициентов g0, g1 от шага дис-
кретности h, выражаемой при малом h соотношением
(11.11)
g0 = 1 - h/τ, g1 = h/τ.
“Идеальный” закон управления, обеспечивающий достижение цели (11.9),
имеет вид
τ - τ
τ
(11.12)
u∗k =
yk +
rk
κτ
κτ
и уже не зависит от h. Для синтеза адаптивного регулятора воспользу-
емся прямым подходом [96]. Заменяя неизвестные коэффициенты в (11.12)
27
настраиваемыми коэффициентами θ1, θ2, выберем реальный закон управле-
ния
(11.13)
uk = θ1kyk + θ2krk.
Если ввести обозначения θk = col(θ1k, θ2k), zk = col(yk, rk), то закон (11.13)
можно записать в виде
(11.14)
uk = θTkzk.
Для настройки вектора θk выберем алгоритм градиентного типа [96]
(11.15)
θk+1 = θk - αkδk+1zk,
где δk+1 = (yk+1 - g0yk - g1rk) — текущая невязка в цели управления (11.9).
Из (11.11) следует, что при малых h δk+1 = yk+1 - yk + h(yk(τ - rk))
(τ y + y - r(t))h/τ. Теперь можно перейти к непрерывному времени и
построить аналогично (2.10) непрерывную модель системы (11.7), (11.14),
(11.15). Считая для простоты αk = αh, запишем уравнения непрерывной
детерминированной модели в виде:
τ y + y = κu, u = θ1y + θ2r,
(11.16)
1/dt =(τ y + y - r(t))y/τ,
2/dt =(τ y + y - r(t))r(t).
Уравнения (11.16) описывают непрерывную адаптивную систему, алго-
ритм адаптации в которой совпадает а алгоритмом [97]. Можно показать [97],
что в системе (11.16) достигается цель управления limt→∞ |y(t) - r(t)| = 0.
Заметим, что модель (11.16) находится на границе устойчивости и что-
бы иметь возможность судить по ее свойствам о свойствах исходной систе-
мы (11.7), (11.14), (11.15), необходимо регуляризовать (огрубить) алгоритм
адаптации, например введением отрицательной обратной связи [98]. После
регуляризации система (11.16) становится экспоненциально диссипативной.
Отсюда следует (см. раздел 6), что исходная система (11.7), (11.14), (11.15)
будет предельно-диссипативной при h → 0, а ее траектории будут при ма-
лом h близки к траекториям (11.16). Аналогичное утверждение справедливо
и в случае действия на объект ограниченных слабозависимых возмущений с
малой дисперсией [16, 44].
Недостатком системы (11.16) является необходимость измерения старшей
производной выхода объекта. При высоком порядке объекта аналогичные
рассуждения приводят к выводу о практической нереализуемости адаптив-
ного регулятора (11.16). Этот вывод остается в силе и для исходного адап-
тивного регулятора (11.14), (11.15) при малом шаге дискретности h.
Рассмотренный пример показывает, что использование идей метода непре-
рывных моделей позволяет не только дать рекомендации по синтезу адаптив-
ного регулятора и упростить анализ его динамики, но и выявить некоторые
особенности исходной системы, остающиеся в тени при рассмотрении ее как
чисто дискретной.
28
12. Заключение
Рассмотренный выше метод усредненных (непрерывных и дискретных)
моделей может применяться как для анализа, так и для синтеза дискрет-
ных стохастический систем. Естественной областью его приложений явля-
ются системы, для которых характерно разделение движений на быстрые и
медленные составляющие. При решении задач анализа метод усредненных
моделей позволяет упростить исходную систему как при аналитическом, так
и при численном ее исследовании. В задаче синтеза дискретной системы с за-
данными свойствами метод непрерывных моделей позволяет воспользовать-
ся богатым арсеналом средств синтеза непрерывных систем. В обоих случа-
ях получаемые решения являются приближенными, но их точность растет
по мере уменьшения шага дискретизации. Может показаться, что посколь-
ку мощность вычислительных устройств стремительно растет, актуальность
развития упрощенных методов исследования систем падает. Однако слож-
ность задач, стоящих перед исследователями и инженерами, зачастую растет
опережающими темпами. По мнению авторов статьи, с учетом повсеместно-
го распространения сетевых систем и соответствующего роста размерности
исследуемых динамических систем актуальность подходов, основанных на
упрощениях, не падает, а растет.
Отметим, что метод непрерывных моделей давно применяется в инженер-
ной практике на первых, прикидочных этапах проектирования. Полученные
к настоящему времени результаты (см. разделы 3-6) позволяют обоснован-
но применять этот метод для анализа и синтеза сложных нелинейных сто-
хастических дискретных систем, в частности дискретных адаптивных систем
управления. Результаты, перечисленные в обзоре, охватывают широкий класс
систем, встречающихся в практических задачах.
Тем не менее метод усредненных моделей остается приближенным, асимп-
тотическим методом. Поэтому теоремы, обосновывающие его применимость в
приложениях, можно понимать, по словам Л. Льюнга [15], не в их буквальном
смысле, а скорее как “моральную поддержку” замены исходной системы ее
детерминированной или стохастической непрерывной или дискретной упро-
щенной моделью.
ПРИЛОЖЕНИЕ
Доказательство теоремы 2. Доказательству предпошлем два вспо-
могательных утверждения.
Лемма П.1. Пусть ξk, k = 1,2,..., — случайный процесс со значениями
в Rn, удовлетворяющий условию сильного перемешивания с коэффициентом
перемешивания ζk, причем
(Π.1)
Eξk = 0, E∥ξk2p+δ
C < ∞,
(Π.2)
kp-1ζδ/(2p+δ)k
<∞
k=1
для некоторых C > 0, δ > 0 и целого p 2.
29
Тогда существует число Cp > 0, такое что для любого целого N 0 и
любой числовой последовательности α1, . . . , αN справедливо неравенство
(
)p⎫⎬
2
(Π.3)
αiξi
Cp
α2
k
1kN
i=1
k=1
Следствие. В условиях леммы П.1 справедливо неравенство
2
(Π.4)
αiξi
C2
α2
1kN
k
i=1
k=1
Лемма П.2 (дискретный вариант леммы Гронуолла-Беллмана). Если по-
следовательность чисел μk 0, k = 1, . . . , N, удовлетворяет неравенствам
k-1
μk ρ1 + ρ2i=0 αiμi, k = 1,... ,N, где ρ1 0, ρ2 0, αi 0, то
(
)
(Π.5)
μk ρ1 exp ρ2
αi
, k = 1,...,N.
i=0
Для доказательства теоремы 2 оценим сначала величину ∥zk - zk2, где
zk — решение уравнения дискретной детерминированной модели (3.4) при
z0 = z0. Из (2.1), (3.4) имеем
(Π.6)
zk - zk =
αi[F(zi,fi) - F(zi,fi)] +
αi[F(zi,fi) - A(zi
)].
i=0
i=0
Положим μk = max1ik ||zi - zi||. Взяв сначала в правой, а затем в левой
частях (Π.6) максимум по i = 1, . . . , k и пользуясь условием (3.7), получим
(Π.7)
μk L
αiμi + max
αi[F(zi,fi) - A(zi)]
0kN-1
i=0
i=0
Применяя лемму П.2, возводя обе части (Π.7) в квадрат и переходя к мате-
матическим ожиданиям, получаем
(Π.8)
Eμ2N e2LtN κN,
∑
k-1
где κN = E max1ik
αi[F(zi,fi) - A(zi)]2. Для оценки величины κN
i=0
заметим, что случайный процесс ϕi = F (zi, fi) - A(zi) удовлетворяет усло-
вию сильного перемешивания с тем же коэффициентом перемешивания, что
и процесс fi [30]. Так как при конечном tN векторы z1, . . . , zN ограничены
в совокупности, условия леммы П.1 выполнены для ξi = ϕi, p = 2 и δ = 4.
Из (Π.4) получаем, что
(Π.9)
κN
C2
α2k
C2tN
α.
k=0
30
Заметим теперь, что
{
}
(Π.10)
E max ||zk - z(tk)||2
2Eμ2N + 2ν2N ,
0tktN
где νN = max1kN ||zk - z(tk)||. Величину νN можно рассматривать как по-
грешность решения уравнения (2.3) методом Эйлера на промежутке [0, tN ].
Стандартные вычисления дают для νN оценку
(Π.11)
νN ||A(z0)||e2LtN [e - 1]L-1
(см. например, [13]). Сопоставляя (Π.8)-(Π.11), убеждаемся в справедливости
неравенства (3.8). Теорема 2 доказана.
Замечание. Пользуясь результатами [99], можно показать, что если в
условиях теоремы 2 будут ограничены не восьмые, а лишь четвертые момен-
ты величин F (zi, fi), то для любого ε > 0 будет справедливо неравенство (3.8)
с заменой α на α1.
СПИСОК ЛИТЕРАТУРЫ
1.
Боголюбов Н.Н., Митропольский Ю.А. Асимптотические методы в теории
нелинейных колебаний. М.: Гостехиздат, 1955.
2.
Волосов В.М. Усреднение в системах обыкновенных дифференциальных урав-
нений // Успехи математических наук. 1962. № 3. С. 3-126.
3.
Мищенко Е.Ф., Розов Н.Х. Дифференциальные уравнения с малым парамет-
ром и релаксационые колебания. Т. 1. М.: Наука, 1975.
4.
Геращенко Е.И., Геращенко С.М. Метод разделения движений и оптимизация
нелинейных систем. М.: Наука, 1975.
5.
O’Malley R. Introduction to Singular Perturbations. N.Y. : Acad. Press, 1974.
6.
Kokotovic P.V., O’Malley R., Sannuti P. Singular Perturbations and Order
Reduction in Control Theory — an Overview // Automatica. 1976. V. 12. No. 2.
P. 123-132.
7.
Young K.-K., Kokotovic P., Utkin V. A Singular Perturbation Analysis of High-
Gain Feedback Systems // IEEE Trans. Autom. Control. 1977. V. 22. No. 6.
P. 931-938.
8.
Хасьминский Р.З. О случайных процессах, определяемых дифференциальны-
ми уравнениями с малым параметром // Теория вероятностей и ее применения.
1966. Т. 11. № 2. С. 240-259.
9.
Хасьминский Р.З. О принципе усреднения для стохастических дифференци-
альных уравнений Ито // Кибернетика. 1968. Т. 4. № 3. С. 260-279.
10.
Гихман И.И., Скороход А.В. Стохастические диференциальные уравнения. Ки-
ев: Наук. думка, 1968.
11.
Фрейдлин М.И. Принцип усреднения и теоремы о больших уклонениях // Успе-
хи математических наук. 1978. Т. 33. № 5. С. 107-160.
12.
Вентцель А.Д., Фрейдлин М.И. Флуктуации в динамических системах под дей-
ствием малых случайных возмущений. М.: Наука, 1979.
13.
Деревицкий Д.П., Фрадков А.Л. Две модели для анализа динамики алгоритмов
адаптации // АиT. 1974. № 1. С. 59-67.
Derevitskii D.P., Fradkov A.L. Two Models Analyzing the Dynamics of Adaptation
Algorithms // Autom. Remote Control. 1974. V. 35. No. 1. P. 67-75.
31
14.
Деревицкий Д.П., Фрадков А.Л. Исследование дискретных адаптивных систем
управления динамическими объектами с помощью непрерывных моделей //
Изв. АН СССР. Техн. кибернетика. 1975. № 5. С. 93-99.
15.
Ljung L. Analysis of Recursive Stochastic Algorithms // IEEE Trans. Autom.
Control. 1977. V. 22. No. 4. P. 551-575.
16.
Деревицкий Д.П., Фрадков А.Л. Прикладная теория дискретных адаптивных
систем управления. М.: Наука, 1981.
17.
Fradkov A. Continuous-time Averaged Models of Discrete-time Stochastic Systems:
Survey and Open Problems // Proc. 2011 50 IEEE Conf. on Decision and Control
and Eur. Control Conf. (CDC-ECC). Orlando, Florida, USA. 2011. P. 2076-2081.
18.
Fradkov A.L. Averaged Continuous-Time Models in Identification and Control //
Proc. Eur. Contr. Conf. 2014, Strasbourg. P. 2822-2826.
19.
Поляк Б.Т. Введение в оптимизацию. М.: Hаука, 1983.
20.
Robbins H., Monro S. A Stochastic Approximation Method // Ann. Math. Stat.
1951. V. 22. P. 400-407.
21.
Kushner H.J., Clark D.S. Stochastic approximation methods for constrained and
unconstrained systems. V. 26. Springer Science & Business Media, 2012.
22.
Меерков С.М. Об упрощении описания медленных марковских блужданий //
АиТ. 1972. № 3. C. 66-75.
Meerkov S.M. On Simplification of the Description of Slow Markovian Roaming //
Autom. Remote Control. V. 33. No. 3. 1972. P. 404-414.
23.
Информационные материалы: кибернетика 68. 1973. С. 14.
24.
Ljung L. Convergence of Recursive Stochastic Algorithms // Proc. IFAC Sympos.
on Stochastic Control. 1974. P. 551-575.
25.
Basar E.T. Control Theory: Twenty-Five Seminal Papers (1932-1981). Wiley-IEEE
Press, 2001.
26.
Gerencsér L. A Representation Theorem for the Error of Recursive Estimators //
SIAM J. Control Optim. 2006. V. 44. No. 6. P. 2123-2188.
27.
Поляк Б.T., Цыпкин Я.З. Псевдоградиентные алгоритмы адаптации и обуче-
ния // АиТ. 1973. № 3. С. 45-68.
Polyak В.Т., Tsypkin Ya.Z. Pseudogradient Algorithms of Adaptation and
Learning // Autom. Remote Control. 1973. V. 34. No. 3. P. 45-68.
28.
Невельсон М.Б., Хасьминский Р.З. Непрерывные процедуры стохастической
аппроксимации // Пробл. передачи информ. 1971. Т. 7. № 2. С. 58-69.
29.
Хасьминский Р.З. Принцип усреднения для стохастических дифференциаль-
ных уравнений // Пробл. передачи информ. 1968. Т. 4. № 2. С. 86-87.
30.
Ибрагимов И.А., Линник Ю.В. Независимые и стационарно связанные величи-
ны. М.: Наука, 1965.
31.
Бернштейн С.Н. Стохастические уравнения в конечных разностях и стоха-
стические дифференциальные уравнения. Собр. соч. в 4 т. Т. 4. С. 484-542.
М.: Изд-во АН СССР. 1964.
32.
Красовский Н.Н. Некоторые задачи теории устойчивости движения. М.: Физ-
матгиз, 1959.
33.
Ахметкалиев T. О связи между устойчивостью стохастических разностных
и диференциальных уравнений // Дифференц. уравнения. 1965. № 8. C. 1016-
1026.
32
34.
Поляк Б.T. Сходимость и скорость сходимости итеративных стохастических
алгоритмов. I // АиТ. 1976. № 12. С. 83-94.
Polyak В.Т. Convergence and Rate of Convergence of Recursive Stochastic
Algorithms. I // Autom. Remote Control. 1976. V. 37. P. 537-542.
35.
Невельсон М.Б., Хасьминский Р.З. Стохастическая аппроксимация и рекур-
рентное оценивание. М.: Наука, 1972.
36.
Kushner H. Convergence of Recursive Adaptive and Identification Procedures via
Weak Convergence Theory // IEEE Trans. Autom. Control. 1977. V. 22. No. 6.
P. 921-930.
37.
Деревицкий Д.П., Фрадков А.Л. Применение теории марковских процессов к
анализу динамики алгоритмов адаптации // Автоматика и вычислительная
техника. 1974. № 2. C. 39-48.
38.
Деревицкий Д.П., Фрадков А.Л. Анализ динамики некоторых алгоритмов адап-
тации / Вопросы кибернетики. Адаптивные системы. М.: НС по кибернетике
АН СССР, 1974. C. 79-84.
39.
Nešić D., Teel A.R., Kokotović P. Sufficient Conditions for Stabilization of
Sampled-data Nonlinear Systems via Discrete-time Approximations // Syst.
Control Lett. 1999. V. 38. No. 4. P. 259-270.
40.
Драган В., Халанай А. Сохранение экспоненциальной устойчивости в дискрет-
ных системах управления с адаптивной стабилизацией // Сиб. мат. журн. Т. 31.
№ 6. 1990. P. 200-205.
41.
Браверман Э.М., Пятницкий Е.С. Прохождение случайного сигнала через аб-
солютно устойчивые системы // АиТ. 1971. № 2. C. 36-41.
Braverman E., Pyatnitskii Y. S. Passing of Random Signal Through Absolutely
Stable Systems // Autom. Remote Control. 1971. V. 32. No. 2. P. 202-206.
42.
Деревицкий Д.П., Рипа К.К., Фрадков А.Л. Исследование динамики некоторых
алгоритмов случайного поиска / Проблемы случайного поиска. Рига: Зинатне,
1975. Вып. 4. С. 32-47.
43.
Андриевский Б.Р., Блажкин А.Т., Деревицкий Д.П., Фрадков А.Л. Метод ис-
следования динамики цифровых адаптивных систем управления летательными
аппаратами / Управление в пространстве. Т. 1. М.: Наука, 1976. С. 149-153.
44.
Деревицкий Д.П. Синтез стохастической дискретной адаптивной системы ста-
билизации с помощью непрерывной модели // Автоматика и вычислительная
техника. 1975. № 6. C. 50-52.
45.
Андриевский Б.Р., Блажкин А.Т., Деревицкий Д.П., Фрадков А.Л. Метод син-
теза дискретных адаптивных систем стабилизации стохастического объекта //
Рефераты докл., представленных на VII Всес. совещ. по проблемам управле-
ния. 1977. C. 102-105.
46.
Левитан В.Д. Анализ динамики дискретных процессов адаптации с разрыв-
ной стохастической моделью // Вопросы кибернетики. Адаптивные системы
управления. М.: Науч. совет по кибернетике АН СССР, 1977. C. 127-129.
47.
Amelina N., Fradkov A., Jiang Y., Vergados D.J. Approximate Consensus in
Stochastic Networks with Application to Load Balancing // IEEE Trans. Inform.
Theory. 2015. V. 61. No. 4. P. 1739-1752.
48.
Pezeshki-Esfahani H., Heunis A.J. Strong Diffusion Approximations for Recursive
Stochastic Algorithms // IEEE Trans. Inform. Theory. 1997. V. 43. No.
2.
P. 512-523.
49.
Weiss A., Mitra D. Digital Adaptive Filters: Conditions for Convergence, Rates of
Convergence, Effects of Noise and Errors Arising from the Implementation // IEEE
Trans. Inform. Theory. 1979. V. 25. No. 6. P. 637-652.
33
50.
Benveniste A., Métivier M., Priouret P. Adaptive Algorithms and Stochastic
Approximations. Springer, 2012.
51.
Амелина Н.О., Фрадков А.Л. Приближенный консенсус в стохастической ди-
намической сети с неполной информацией и задержками в измерениях // АиТ.
2012. № 11. С. 6-29.
Amelina N.O., Fradkov A.L. Approximate Consensus in the Dynamic Stochastic
Network with Incomplete Information and Measurement Delays // Autom. Remote
Control. 2012. V. 73. No. 11. P. 1765-1783.
52.
Amelina N., Fradkov A. Approximate Consensus in Multi-Agent Nonlinear
Stochastic Systems // Proc. Europ. Control Conf. (ECC). 2014. P. 2833-2838.
53.
Amelina N., Fradkov A., Amelin K. Approximate Consensus in Multi-Agent
Stochastic Systems with Switched Topology and Noise // Proc. IEEE Multiconf.
on Systems and Control (MSC’2012). Dubrovnik, Croatia. 2012. P. 445-450.
54.
Amelin K., Amelina N., Granichin O., Granichina O. Multi-Agent Stochastic
Systems with Switched Topology and Noise // Proc. 13 ACIS Int. Conf. on
Software Engineering, Artificial Intelligence, Networking and Parallel/Distributed
Computing (SNPD). Kyoto. Japan. 2012. P. 438-443.
55.
Amelina N., Granichin O., Kornivetc A. Local Voting Protocol in Decentralized
Load Balancing Problem with Switched Topology, Noise, and Delays // Proc. IEEE
52 Ann. Conf. on Decision and Control (CDC). 2013. P. 4613-4618.
56.
Gorodeisky Z. Deterministic Approximation of Best-Response Dynamics for the
Matching Pennies Game // Game. Econom. Behav. 2009. V. 66. No. 1. P. 191-201.
57.
Benveniste A. Design of Adaptive Algorithms for the Tracking of Time-Varying
Systems // Int. J. Adapt. Control Signal Process. 1987. V. 1. No. 1. P. 3-29.
58.
Benveniste A., Priouret P., Metivier M. Algorithmes adaptatifs et approximations
stochastiques: théorie et applications à l’identification, au traitement du signal et à
la reconnaissance des formes. Paris etc.: Masson, 1987.
59.
Benveniste A., Ruget G. A Measure of the Tracking Capability of Recursive
Stochastic Algorithms with Constant Gains // IEEE Trans. Autom. Control. 1982.
V. 27. No. 3. P. 639-649.
60.
Dugard L., Landau I. Recursive Output Error Identification Algorithms Theory and
Evaluation // Automatica. 1980. V. 16. No. 5. P. 443-462.
61.
Kulchitskii O. The New Method of Dynamic Stochastic Uncertain Systems
Investigation // Preprints of Int. Conf. “Stochastic Optimization”. Part 1. 1984.
P. 127-129.
62.
Kushner H.J. Approximation and weak convergence methods for random processes,
with applications to stochastic systems theory. V. 6. MIT press, 1984.
63.
Ljung L. On Positive Real Transfer Functions and the Convergence of Some
Recursive Schemes // IEEE Trans. Autom. Control. 1977. V. 22. No. 4. P. 539-
551.
64.
Льюнг Л., Седерстрем T. Идентификация систем: теория для пользователя.
М.: Hаука, 1991.
65.
Solo V. The Convergence of aml // IEEE Trans. Autom. Control. 1979. V. 24.
No. 6. P. 958-962.
66.
Bozin A., Zarrop M. Self Tuning Optimizer-Convergence and Robustness
Properties // Proc. 1st Eur. Control Conf. 1991. P. 672-677.
67.
Ermoljev J.M., Kaniovskii J.M. Asymptotic Properties of Some Stochastic
Programming Methods with Constant Step // Zh. Vychisl. Mat. i Mat. Fiz. 1979.
V. 19. No. 2. P. 356-366.
34
68.
Coito F.J., Lemos J.M. Adaptive Optimization with Constraints: Convergence and
Oscillatory Behaviour // Pattern Recogn. Image Anal. Springer, 2005. P. 19-26.
69.
Кульчицкий О.Ю. Метод исследования сходимости алгоритмов адаптивной
фильтрации, использующий стохастические функции Ляпунова // Пробл. пе-
редачи информ. 1985. Т. 21. № 4. C. 49-63.
70.
Kushner H.J., Shwartz A. Weak Convergence and Asymptotic Properties of
Adaptive Filters with Constant Gains // IEEE Trans. Inform. Theory. 1984. V. 30.
No. 2. P. 177-182.
71.
Metivier M., Priouret P. Applications of a Kushner and Clark Lemma to General
Classes of Stochastic Algorithms // IEEE Trans. Inform. Theory. 1984. V. 30. No. 2.
P. 140-151.
72.
Деревицкий Д.П. Метод исследования динамики дискретных адаптивных си-
стем управления динамическими объектами // Вопросы кибернетики. Адап-
тивные системы. М.: НС по кибернетике АН СССР, 1976. C. 64-72.
73.
Andrievsky B., Blazhkin A., Derevitsky D., Fradkov A. The Method of Investigation
of Dynamics of Digital Adaptive Systems of Flight Control // Proc. 6th IFAC
Sympos. on Automatic Control in the Space. Yerevan, 1974.
74.
Деревицкий Д.П., Фрадков А.Л. Метод непрерывных моделей в теории дис-
кретных адаптивных систем // Вопросы кибернетики: Задачи и методы адап-
тивного управления. М.: НС по кибернетике АН СССР, 1980. C. 75-98.
75.
Derevitskii D., Fradkov A. Averaging Method for Discrete Stochastic Systems
and Its Application in Adaptive Control // Preprints Int. Conf. “Stochastic
Optimization”. V. 1. P. 74-76.
76.
Фрадков А.Л. Адаптивное управление сложными системами. М.: Наука, 1990.
77.
Кульчицкий О.Ю. Алгоритмы типа стохастической аппроксимации в контуре
адаптации дискретной стохастической линейной динамической системы. I, II //
АиТ. 1983. № 9. C. 102-118; АиТ. 1984. № 3. C. 104-113.
Kulchitskii O.Y. Algorithms of Stochastic Approximation in Adaptation Loop of
Linear Dynamic System. I, II // Autom. Remote Control. V. 44. No. 9. 1983.
P. 1189-1203; V. 45. No. 3. 1984. P. 104-113.
78.
Mosca E., Zappa G., Lemos J.M. Robustness of Multipredictor Adaptive
Regulators: Musmar // Automatica. 1989. V. 25. No. 4. P. 521-529.
79.
Mosca E., Lemos J.M., Mendonca T., Nistri P. Input Variance Constrained
Adaptive Control and Singularly Perturbed ODE’s // Proc. 1st ECC. Grenoble.
1991. P. 2176-2180.
80.
Цыкунов А.М. Адаптивное управление объектами с последействием. М.: Наука,
1984.
81.
Oja E., Karhunen J. On Stochastic Approximation of the Eigenvectors and
Eigenvalues of the Expectation of a Random Matrix // J. Math. Anal. Appl. 1985.
V. 106. No. 1. P. 69-84.
82.
Жданов А.И. Рекуррентное оценивание минимальных собственных значений
информационных матриц // АиТ. 1987. № 4. C. 26-36.
Zhdanov A.I. Recursive Estimation of Minimum Eigenvalues of Information
Matrices // Autom. Remote Control. 1987. V. 48. No. 4. Part 1. P. 443-451.
83.
Stankovic M.S., Johansson K.H., Stipanović D.M. Distributed Seeking of Nash
Equilibria in Mobile Sensor Networks // Proc. 49th IEEE Conf. on Decision and
Control (CDC). 2010. P. 5598-5603.
84.
Астановская Н.В., Варшавский В.И., Ревако В.М., Фрадков А.Л. Метод непре-
рывных моделей в задаче децентрализованного рспределения ресурсов // При-
менение методов случайного поиска в САПР. Таллин: Валгус, 1979.
35
85.
Боровков А.А. Асимптотические методы в теории массового обслуживания. М.:
Наука, 1979.
86.
Kuan C.-M., Hornik K. Convergence of Learning Algorithms with Constant
Learning Rates // IEEE Trans. Neural Networks. 1991. V. 2. No. 5. P. 484-489.
87.
Choi J., Horowitz R. Learning Coverage Control of Mobile Sensing Agents in One-
Dimensional Stochastic Environments // IEEE Trans. Autom. Control. 2010. V. 55.
No. 3. P. 804-809.
88.
Choi J., Oh S., Horowitz R. Distributed Learning and Cooperative Control for
Multi-Agent Systems // Automatica. 2009. V. 45. No. 12. P. 2802-2814.
89.
Huang M., Manton J. Coordination and Consensus of Networked Agents with Noisy
Measurements: Stochastic Algorithms and Asymptotic Behavior // SIAM J. Control
Optim. 2009. V. 48. No. 1. P. 134-161.
90.
Borkar V.S., Manjunath D. Distributed Topology Control of Wireless Networks //
Wireless Networks. 2008. V. 14. No. 5. P. 671-682.
91.
Граничин О.Н., Фомин В.Н. Адаптивное управление с использованием проб-
ных сигналов // АиТ. 1986. № 2. C. 100-112.
Granichin O., Fomin V. Adaptive Control Using Test Signals in the Feedback
Channel // Autom. and Remote Control. 1986. V. 47. No. 2. Part 2. P. 238-248.
92.
Granichin O., Volkovich V., Toledano-Kitai D. Randomized Algorithms in
Automatic Control and Data Mining. Heidelberg—N.Y.—Dordrecht—London:
Springer-Verlag, 2015.
93.
Amelin K., Granichin O. Randomized Control Strategies under Arbitrary External
Noise // IEEE Trans. Autom. Control. 2016. V. 61. No. 5. P. 1328-1333.
94.
Spall J.C. Introduction to Stochastic Search and Optimization: Estimation,
Simulation, and Control. V. 64. Wiley-Interscience, 2003.
95.
Цыпкин Я.З. Адаптация и обучение в автоматических системах. М.: Hаука,
1968.
96.
Якубович В.А. Метод рекуррентных целевых неравенств в теории адаптивных
систем // Вопросы кибернетики. Адаптивные системы управления. М.: Науч-
ный совет по кибернетике АН СССР, 1976. C. 32-63.
97.
Андриевский Б.Р., Фрадков А.Л. Анализ динамики одного алгоритма адаптив-
ного управления линейным динамическим объектом // Вопросы кибернети-
ки. Адаптивные системы управления. М.: Научный совет по кибернетике АН
СССР, 1976. C. 99-103.
98.
Фрадков А.Л. Схема скоростного градиента и ее применение в задачах адап-
тивного управления // АиТ. 1979. № 9. P. 90-101.
Fradkov A.L. Speed-Gradient Scheme and Its Application in Adaptive Control
Problems // Autom. Remote Control. 1980. V. 40. No. 9. P. 1333-1342.
99.
Yoshihara K. Moment Inequalities for Mixing Sequences // Kodai Math. J. 1978.
V. 1. No. 2. P. 316-328.
Статья представлена к публикации членом редколлегии А.В. Назиным.
Поступила в редакцию 19.07.2018
После доработки 06.09.2018
Принята к публикации 08.11.2018
36