Журнал вычислительной математики и математической физики, 2022, T. 62, № 1, стр. 71-89

Бегущие волны в полносвязных сетях нелинейных осцилляторов

С. Д. Глызин 1*, А. Ю. Колесов 1**

1 ЯрГУ, Центр интегрируемых систем
150000 Ярославль, ул. Советская, 14, Россия

* E-mail: glyzin@uniyar.ac.ru
** E-mail: andkolesov@mail.ru

Поступила в редакцию 28.02.2021
После доработки 28.02.2021
Принята к публикации 04.09.2021

Полный текст (PDF)

Аннотация

Рассматриваются специальные системы обыкновенных дифференциальных уравнений – так называемые полносвязные сети нелинейных осцилляторов. Для данного класса систем предлагаются некоторые методы, позволяющие разобраться с вопросами о существовании и устойчивости периодических решений типа бегущих волн. Характерная особенность наших методов заключается в том, что как при отыскании указанных циклов, так и при анализе их свойств устойчивости используются вспомогательные системы с запаздыванием. Библ. 10. Фиг. 3.

Ключевые слова: полносвязная сеть нелинейных осцилляторов, бегущая волна, система с запаздываниями, асимптотика, устойчивость, буферность.

1. ОБЩАЯ СХЕМА ИССЛЕДОВАНИЯ

Полносвязной сетью нелинейных осцилляторов или просто полносвязной сетью назовем систему вида

(1.1)
$\mathop {\dot {x}}\nolimits_j = F({{x}_{j}},{{u}_{j}}),\quad j = 1,2, \ldots ,m.$
Здесь $m \geqslant 2,$ ${{x}_{j}} = {{x}_{j}}(t) \in {{\mathbb{R}}^{n}},$ $n \geqslant 2,$ точка – дифференцирование по $t,$
(1.2)
а вектор-функции $F(x,u),$ $G(x)$ со значениями в ${{\mathbb{R}}^{n}}$ бесконечно дифференцируемы по своим переменным $(x,u) \in {{\mathbb{R}}^{n}} \times {{\mathbb{R}}^{n}}$ и $x \in {{\mathbb{R}}^{n}}.$ Как правило, отвечающая сети (1.1), (1.2) парциальная система
(1.3)
$\dot {x} = F(x,0)$
допускает экспоненциально орбитально устойчивый цикл, т.е. представляет собой нелинейный осциллятор. Мы же рассматриваем ситуацию, когда $m$ одинаковых осцилляторов (1.3) взаимодействуют друг с другом по принципу “каждый со всеми”.

В частном случае, когда $F(x,u) = F(x) + D(x)u,$ где $D(x)$ – квадратная матрица размера $n \times n,$ система (1.1), (1.2) приобретает вид

(1.4)
Именно эта ситуация и представляет наибольший интерес, поскольку системы (1.4) возникают при математическом моделировании полносвязных нейронных и генных сетей (см., например, работы [1]–[5]).

В дальнейшем будем интересоваться проблемами существования и устойчивости у системы (1.1), (1.2) специальных периодических решений – так называемых бегущих волн. В первую очередь, речь пойдет о канонической бегущей волне, допускающей представление вида

(1.5)
${{x}_{j}} = x(t + (j - 1)\Delta ),\quad j = 1,2, \ldots ,m.$
Здесь $\Delta > 0$ – некоторый фазовый сдвиг, а вектор-функция $x(t)$ периодична пo t с периодом $m\Delta /k$ при некотором $k\,:1 \leqslant k \leqslant m - 1.$

Заметим, что любая каноническая бегущая волна (1.5) порождает целое семейство ${{\mathcal{U}}_{k}}$ индуцированных бегущих волн. Действительно, фиксируем любую перестановку $({{j}_{1}},{{j}_{2}}, \ldots ,{{j}_{m}})$ набора индексов $(1,2, \ldots ,m)$ и положим

(1.6)
${{x}_{{{{j}_{s}}}}} = x(t + (s - 1)\Delta ),\quad s = 1,2, \ldots ,m,$
где функция $x(t)$ та же самая, что и в (1.5). Далее, поскольку система (1.1), (1.2) инвариантна относительно замены переменных вида
(1.7)
$({{x}_{1}},{{x}_{2}}, \ldots ,{{x}_{m}}) \to ({{x}_{{{{j}_{1}}}}},{{x}_{{{{j}_{2}}}}}, \ldots ,{{x}_{{{{j}_{m}}}}}),$
а компоненты (1.6) при указанной замене переходят в (1.5), то (1.6) также является периодическим решением нашей системы. Это решение назовем индуцированной бегущей волной. Что же касается количества циклов семейства ${{\mathcal{U}}_{k}},$ то оно равно $(m - 1){\kern 1pt} !$, а не $m{\kern 1pt} !$, как можно было бы ожидать.

Для пояснения сути дела введем понятие эквивалентных замен (1.7). А именно, будем считать замены

$({{x}_{1}},{{x}_{2}}, \ldots ,{{x}_{m}}) \to ({{x}_{{{{j}_{1}}}}},{{x}_{{{{j}_{2}}}}}, \ldots ,{{x}_{{{{j}_{m}}}}}),\quad ({{x}_{1}},{{x}_{2}}, \ldots ,{{x}_{m}}) \to ({{x}_{{{{i}_{1}}}}},{{x}_{{{{i}_{2}}}}}, \ldots ,{{x}_{{{{i}_{m}}}}})$
эквивалентными, если набор индексов $({{i}_{1}},{{i}_{2}}, \ldots ,{{i}_{m}})$ есть циклическая перестановка набора индексов $({{j}_{1}},{{j}_{2}}, \ldots ,{{j}_{m}}).$ Нетрудно увидеть, что порожденные данными наборами индуцированные бегущие волны отличаются друг от друга лишь подходящим сдвигом по времени, а значит, совпадают. Следовательно, циклы семейства ${{\mathcal{U}}_{k}}$ находятся во взаимно однозначном соответствии с классами эквивалентности замен (1.7). Количество же этих классов равно $(m - 1){\kern 1pt} !$.

Итак, построение семейства бегущих волн ${{\mathcal{U}}_{k}}$ сводится к отысканию канонического цикла (1.5). При решении этой проблемы нам потребуется вспомогательное уравнение с запаздываниями

(1.8)
$\dot {x} = F(x,{{u}_{\Delta }}),\quad {{u}_{\Delta }} = \sum\limits_{s = 1}^{m - 1} \,G(x(t - s\Delta )),$
где $x = x(t) \in {{\mathbb{R}}^{n}},$ $\Delta = {\text{const}} > 0.$

Будем считать, что на некотором интервале $({{\Delta }_{1}},{{\Delta }_{2}}) \subset (0, + \infty )$ изменения параметра $\Delta $ уравнение (1.8) допускает периодическое решение $x = x(t,\Delta )$ периода $T = T(\Delta ) > 0.$ В этом случае справедлива

Теорема 1.1. Предположим, что найдется такое натуральное $k:1 \leqslant k \leqslant m - 1,$ при котором уравнение

(1.9)
$T(\Delta ) = m\Delta {\text{/}}k$
имеет корень $\Delta = {{\Delta }_{{(k)}}} \in ({{\Delta }_{1}},{{\Delta }_{2}})$. Тогда в исходной системе (1.1), (1.2) данному корню соответствует цикл (каноническая бегущая волна)
(1.10)
${{C}_{k}}\,:\quad {{x}_{j}} = {{x}_{{(k)}}}(t + (j - 1){{\Delta }_{{(k)}}}),\quad j = 1,2, \ldots ,m,$
периода ${{T}_{{(k)}}} = m{{\Delta }_{{(k)}}}{\text{/}}k,$ где ${{x}_{{(k)}}}(t) = {{\left. {x(t,\Delta )} \right|}_{{\Delta = {{\Delta }_{{(k)}}}}}}$.

Для доказательства заметим, что поскольку все функции

(1.11)
${{x}_{j}}(t) = {{x}_{{(k)}}}(t + (j - 1){{\Delta }_{{(k)}}}),\quad j = 1,2, \ldots ,m,$
являются решениями одного и того же уравнения (1.8) при $\Delta = {{\Delta }_{{(k)}}},$ то выполняются равенства
(1.12)
${{\dot {x}}_{j}}(t) = F({{x}_{j}}(t),{{u}_{{j,k}}}(t)),\quad {{u}_{{j,k}}}(t) = \sum\limits_{s = 1}^{m - 1} {G({{x}_{j}}(t - s{{\Delta }_{{(k)}}})),\quad j = 1,2, \ldots ,m.} $
Далее, учтем в (1.12) вытекающие из (1.11) соотношения
${{x}_{j}}(t - s{{\Delta }_{{(k)}}}) = {{x}_{{j - s}}}(t),\quad {{x}_{j}}(t) = {{x}_{{m + j}}}(t)\quad {\text{при}}\quad - {\kern 1pt} (m - 1) \leqslant j \leqslant 0.$
В результате имеем А это значит, что компоненты (1.11) удовлетворяют исходной системе (1.1), (1.2). Теорема 1.1 доказана.

Всюду ниже считаем, что условия теоремы 1.1 выполнены, а значит, система (1.1), (1.2) имеет семейство бегущих волн ${{\mathcal{U}}_{k}}$, порожденное канонической бегущей волной (1.10). Заметим, далее, что поскольку любые два цикла из ${{\mathcal{U}}_{k}}$ переходят друг в друга при соответствующей замене вида (1.7), то их свойства устойчивости одинаковы. Таким образом, проблема устойчивости всех бегущих волн из ${{\mathcal{U}}_{k}}$ сводится к анализу расположения мультипликаторов линейной системы

(1.13)
$\mathop {\dot {h}}\nolimits_j = A(t + (j - 1){{\Delta }_{{(k)}}}){{h}_{j}} + B(t + (j - 1){{\Delta }_{{(k)}}})\sum\limits_{s = 1}^m \,C(t + (s - 1){{\Delta }_{{(k)}}}){{h}_{s}},\quad 1 \leqslant j \leqslant m,$
получающейся при линеаризации исходной полносвязной сети (1.1), (1.2) на цикле (1.10). Здесь ${{h}_{j}} = {{h}_{j}}(t) \in {{\mathbb{R}}^{n}},$ а матрицы $A(t),$ $B(t),$ $C(t)$ задаются равенствами

$\begin{gathered} A(t) = \frac{{\partial F}}{{\partial x}}({{x}_{{(k)}}}(t),{{u}_{{(k)}}}(t)) - \frac{{\partial F}}{{\partial u}}({{x}_{{(k)}}}(t),{{u}_{{(k)}}}(t))G_{x}^{'}({{x}_{{(k)}}}(t)),\quad B(t) = \frac{{\partial F}}{{\partial u}}({{x}_{{(k)}}}(t),{{u}_{{(k)}}}(t)), \\ C(t) = G_{x}^{'}({{x}_{{(k)}}}(t)),\quad {{u}_{{(k)}}}(t) = \sum\limits_{s = 1}^{m - 1} \,G({{x}_{{(k)}}}(t - s{{\Delta }_{{(k)}}})). \\ \end{gathered} $

Наряду с (1.13) в дальнейшем нам понадобится вспомогательное линейное уравнение с запаздываниями

(1.14)
$\dot {h} = A(t)h + B(t)\sum\limits_{s = 0}^{m - 1} \,{{\varkappa }^{s}}C(t - s{{\Delta }_{{(k)}}})h(t - s{{\Delta }_{{(k)}}}),$
где ${{h}^{0}}(t) \in {{\mathbb{C}}^{n}},$ $\varkappa $ – произвольный комплексный параметр. Точнее говоря, нас будут интересовать его мультипликаторы ${{\nu }_{l}}(\varkappa ),$ $l = 1,2, \ldots ,$ занумерованные в порядке убывания модулей.

Поясним смысл термина “мультипликатор” применительно к уравнению с запаздываниями (1.14). В связи с этим рассмотрим пространство $E = C([ - (m - 1){{\Delta }_{{(k)}}},0];{{\mathbb{C}}^{n}})$ непрерывных при $ - (m - 1){{\Delta }_{{(k)}}} \leqslant t \leqslant 0$ вектор-функций ${{h}^{0}}(t) = {\text{colon}}(h_{1}^{0}(t), \ldots ,h_{n}^{0}(t))$ с нормой

${{\left\| {{{h}^{0}}} \right\|}_{E}} = \mathop {\max }\limits_{1 \leqslant j \leqslant n} \mathop {\max }\limits_{ - (m - 1){{\Delta }_{{(k)}}} \leqslant t \leqslant 0} \left| {h_{j}^{0}(t)} \right|.$
Далее, оператором монодромии уравнения (1.14) назовем линейный ограниченный оператор $V:E \to E$, действующий на произвольную функцию ${{h}^{0}}(t) \in E$ по правилу:
(1.15)
$V{{h}^{0}} = h(t + m{{\Delta }_{{(k)}}}{\text{/}}k),\quad - {\kern 1pt} (m - 1){{\Delta }_{{(k)}}} \leqslant t \leqslant 0,$
где $h(t)$ – решение уравнения (1.14) на отрезке времени $0 \leqslant t \leqslant m{{\Delta }_{{(k)}}}{\text{/}}k$ с начальной функцией ${{h}^{0}}(t),$ $ - (m - 1){{\Delta }_{{(k)}}} \leqslant t \leqslant 0.$ Отметим, что спектр этого оператора заведомо дискретен, так как некоторая его степень компактна (в случае $k = 1$ компактен и сам $V$). Что же касается мультипликаторов уравнения (1.14), то таковыми по аналогии со случаем обыкновенных дифференциальных уравнений будем называть собственные значения оператора (1.15).

Остановимся на вопросе о связи между мультипликаторами систем (1.13) и (1.14). Имеет место следующая

Теорема 1.2. Каждый мультипликатор $\nu $ системы (1.13) допускает представление

(1.16)
$\nu = {{\varkappa }^{{m/k}}},$
где $\varkappa $корень одного из уравнений
(1.17)
${{[{{\nu }_{l}}(\varkappa )]}^{k}} = {{\varkappa }^{m}},\quad l \in \mathbb{N}.$
И обратно, если при некотором $l = {{l}_{0}}$ уравнение (1.17) имеет корень $\varkappa = {{\varkappa }_{0}} \ne 0$, то у исходной системы (1.13) существует мультипликатор $\nu = {{\nu }_{{{{l}_{0}}}}}({{\varkappa }_{0}})$.

Доказательство. Фиксируем любой мультипликатор $\nu = \rho exp(i\varphi )$, $\rho > 0,$ $0 \leqslant \varphi < 2\pi $ системы (1.13) и предположим, что он является простым. В этом случае ему отвечает единственное (с точностью до множителя) решение Ляпунова-Флоке вида

(1.18)
$\begin{gathered} {{h}_{j}} = exp(\alpha t){{h}_{*}}_{{,j}}(t),\quad {{h}_{*}}_{{,j}}(t) \in {{\mathbb{C}}^{n}},\quad {{h}_{*}}_{{,j}}(t + m{{\Delta }_{{(k)}}}{\text{/}}k) \equiv {{h}_{*}}_{{,j}}(t),\quad j = 1,2, \ldots ,m, \\ \alpha = \frac{k}{{m{{\Delta }_{{(k)}}}}}(ln\rho + i\varphi ). \\ \end{gathered} $
Отметим, далее, что поскольку система (1.13) инвариантна относительно замен
(1.19)
$t - {{\Delta }_{{(k)}}} \to t,\quad ({{h}_{1}},{{h}_{2}}, \ldots ,{{h}_{m}}) \to ({{h}_{m}},{{h}_{1}},{{h}_{2}}, \ldots ,{{h}_{{m - 1}}}),$
то под действием этих замен решение (1.18) (в силу его единственности) перейдет в решение
${{h}_{j}} = \lambda exp(\alpha (t + {{\Delta }_{{(k)}}})){{h}_{*}}_{{,j}}(t),\quad j = 1,2, \ldots ,m,$
где $\lambda \ne 0$ – некоторая комплексная постоянная. Таким образом, имеет место равенство
(1.20)
$\Lambda {{h}_{ * }}(t + {{\Delta }_{{(k)}}}) = \lambda {{h}_{*}}(t),$
где ${{h}_{*}}(t) = {\text{colon}}\;({{h}_{*}}_{{,1}}(t), \ldots ,{{h}_{*}}_{{,m}}(t)),$ а элементами квадратной $nm$-мерной матрицы
$\Lambda = \left( {\begin{array}{*{20}{c}} 0&0&0& \ldots &0&I \\ I&0&0& \ldots &0&0 \\ 0&I&0& \ldots &0&0 \\ \ldots & \ldots & \ldots & \ldots & \ldots & \ldots \\ \ldots & \ldots & \ldots & \ldots & \ldots & \ldots \\ 0&0&0& \ldots &I&0 \end{array}} \right)$
являются нулевые и единичные матрицы размера $n \times n.$

Из установленного выше соотношения (1.20) следует, что

(1.21)
${{h}_{*}}_{{,m - j}}(t) = {{\lambda }^{{j + 1}}}{{h}_{*}}_{{,1}}(t - (j + 1){{\Delta }_{{(k)}}}),\quad j = 0,1, \ldots ,m - 2,\quad {{\lambda }^{m}} = 1.$
Что же касается компоненты ${{h}_{*}}_{{,1}}(t)$, то в силу (1.13) она является решением линейного неоднородного уравнения
$\dot {h} = - \alpha h + (A(t) + B(t)C(t))h + B(t)\sum\limits_{s = 2}^m \,C(t + (s - 1){{\Delta }_{{(k)}}}){{h}_{*}}_{{,s}}(t).$
А так как функции ${{h}_{*}}_{{,s}}(t),$ $s = 2, \ldots ,m,$ в свою очередь, выражаются через ${{h}_{*}}_{{,1}}(t)$ (см. (1.21)), то компонента ${{h}_{*}}_{{,1}}(t)$ удовлетворяет также и уравнению с запаздываниями

(1.22)
$\dot {h} = - \alpha h + A(t)h + B(t)\sum\limits_{s = 0}^{m - 1} \,{{\lambda }^{s}}C(t - s{{\Delta }_{{(k)}}})h(t - s{{\Delta }_{{(k)}}}).$

Проделанные построения показывают, что уравнение (1.22) заведомо имеет единичный мультипликатор. Сделаем, далее, в этом уравнении замену $exp(\alpha t)h \to h.$ В результате единичный мультипликатор перейдет в мультипликатор $exp(m\alpha {{\Delta }_{{(k)}}}{\text{/}}k),$ а само уравнение (1.22) – в уравнение (1.14) при $\varkappa = \lambda exp(\alpha {{\Delta }_{{(k)}}}).$ Таким образом, с необходимостью найдется номер $l,$ для которого

${{\left. {{{\nu }_{l}}(\varkappa )} \right|}_{{\varkappa = \lambda exp(\alpha {{\Delta }_{{(k)}}})}}} = exp(m\alpha {{\Delta }_{{(k)}}}{\text{/}}k) = \nu .$
А отсюда и из очевидного равенства ${{\nu }^{k}} = {{\varkappa }^{m}}$ вытекают соотношения (1.16), (1.17).

В случае, когда мультипликатор $\nu $ кратный, рассуждения аналогичны. Действительно, пусть данному мультипликатору отвечает ровно $p$ линейно независимых решений Ляпунова-Флоке. Тогда эти решения можно записать в матричной форме $exp(\alpha t)H(t)$, где столбцами матрицы $H(t)$ размера $mn \times p$ являются линейно независимые ${{T}_{{(k)}}}$-периодические вектор-функции. Далее, в силу инвариантности системы (1.13) под действием замен (1.19) здесь вместо (1.20) будет выполняться равенство

(1.23)
$\Lambda H(t + {{\Delta }_{{(k)}}}) = H(t)D$
с некоторой невырожденной постоянной матрицей $D$ размера $p \times p.$

Свойство (1.23) позволяет свести проблему обоснования формул (1.16), (1.17) к предыдущему случаю. Для того чтобы сделать это, фиксируем некоторое собственное значение $\lambda $ матрицы $D,$ а через $e$ обозначим отвечающий ему собственный вектор. Тогда, как нетрудно увидеть, для вектор-функции ${{h}_{*}}(t) = H(t)e$ справедливо соотношение (1.20). Последующие же рассуждения совпадают с изложенными выше.

Итак, мы установили, что любой мультипликатор $\nu $ системы (1.13) может быть представлен в виде (1.16), где $\varkappa $ удовлетворяет одному из уравнений (1.17). Убедимся теперь в справедливости обратного утверждения. В связи с этим предположим, что уравнение (1.17) с номером $l = {{l}_{0}}$ допускает корень $\varkappa = {{\varkappa }_{0}} \ne 0.$ Тогда уравнение

(1.24)
$\dot {h} = - \alpha h + A(t)h + B(t)\sum\limits_{s = 0}^{m - 1} \,\varkappa _{0}^{s}exp( - \alpha s{{\Delta }_{{(k)}}})C(t - s{{\Delta }_{{(k)}}})h(t - s{{\Delta }_{{(k)}}})$
при
(1.25)
$\alpha = \frac{k}{{m{{\Delta }_{{(k)}}}}}(ln({{\rho }_{0}}) + i{{\varphi }_{0}}),\quad {{\rho }_{0}} > 0,\quad 0 \leqslant {{\varphi }_{0}} < 2\pi ,$
где ${{\rho }_{0}}exp(i{{\varphi }_{0}}) = {{\nu }_{{{{l}_{0}}}}}({{\varkappa }_{0}}),$ имеет нетривиальное ${{T}_{{(k)}}}$-периодическое решение $\widetilde h(t).$ Далее, введем в рассмотрение величину
(1.26)
$\lambda = {{\varkappa }_{0}}exp( - \alpha {{\Delta }_{{(k)}}})$
и заметим, что в силу (1.25) и соотношения $\varkappa _{0}^{m} = {{[{{\nu }_{{{{l}_{0}}}}}({{\varkappa }_{0}})]}^{k}}$ указанное значение параметра $\lambda $ удовлетворяет требуемому равенству ${{\lambda }^{m}} = 1$ (см. (1.21)). А отсюда, в свою очередь, следует, что при выбранном $\lambda $ уравнения (1.24) и (1.22) совпадают.

На заключительном этапе доказательства введем в рассмотрение функцию ${{h}_{*}}_{{,1}}(t) = \widetilde h(t),$ а остальные компоненты ${{h}_{*}}_{{,j}}(t),$ $j = 2, \ldots ,m$, определим посредством равенств (1.21), (1.26). Из установленной выше связи между уравнениями (1.24) и (1.22) вытекает, что в итоге получится решение Ляпунова–Флоке вида (1.18) исходной системы (1.13), отвечающее мультипликатору

$\nu = exp(m\alpha {{\Delta }_{{(k)}}}{\text{/}}k) = {{\nu }_{{{{l}_{0}}}}}({{\varkappa }_{0}}).$
Теорема 1.2 доказана.

Установленные теоремы доставляют некую общую методику исследования периодических решений типа бегущих волн в полносвязных сетях нелинейных осцилляторов. Действительно, вопрос о существовании канонической бегущей волны (1.5) сводится к отысканию цикла $x(t,\Delta )$ вспомогательного уравнения с запаздываниями (1.8) и к нахождению корней уравнений (1.9). Что же касается вопроса об устойчивости бегущих волн семейства ${{\mathcal{U}}_{k}},$ то он решается отдельно и в силу теоремы 1.2 состоит в анализе расположения корней уравнений (1.17). Добавим еще, что хотя количество уравнений в системе (1.17), вообще говоря, счетно, но совокупность всех их ненулевых корней заведомо конечна (в противном случае конечномерная система (1.13) имела бы счетное число различных мультипликаторов, что невозможно).

Следует отметить, что изложенная выше методика использовалась ранее при анализе бегущих волн в кольцевых цепочках однонаправленно связанных осцилляторов (см. серию работ [6]–[9]). Но, как оказалось, она сохраняет силу и в случае полносвязных сетей (1.1), (1.2). Более того, нетрудно проверить, что аналоги теорем 1.1, 1.2 распространяются на полносвязные сети с запаздыванием

(1.27)
где $F(x,y,u) \in {{C}^{\infty }}({{\mathbb{R}}^{n}} \times {{\mathbb{R}}^{n}} \times {{\mathbb{R}}^{n}};{{\mathbb{R}}^{n}}),$ $n \geqslant 1.$ Как и в случае (1.1), (1.2), системы вида (1.27) описывают функционирование различных нейронных и генных сетей.

Достаточно ясно, что проблемы анализа вспомогательных уравнений (1.8), (1.14), лежащих в основе нашей методики, в общем случае нелокальны. Но, тем не менее, в некоторых ситуациях, когда есть возможность применить какие-либо асимптотические методы, с указанными проблемами удается справиться. Одна из таких ситуаций рассматривается ниже.

2. СЛУЧАЙ СЛАБО СВЯЗАННЫХ ОСЦИЛЛЯТОРОВ

В данном разделе изложенные выше методы исследования бегущих волн применяются к системе слабосвязанных осцилляторов

(2.1)
Здесь $\varepsilon > 0$ – малый параметр, $F(x,u) \in {{C}^{\infty }}({{\mathbb{R}}^{n}} \times {{\mathbb{R}}^{n}};{{\mathbb{R}}^{n}}),$ $G(x) \in {{C}^{\infty }}({{\mathbb{R}}^{n}};{{\mathbb{R}}^{n}}),$ $n \geqslant 2,$ а соответствующая парциальная система (1.3) допускает экспоненциально орбитально устойчивый цикл

(2.2)
$x = {{x}_{0}}(t),\quad {{\dot {x}}_{0}}(t) \ne 0,\quad {{x}_{0}}(t + {{T}_{0}}) \equiv {{x}_{0}}(t),\quad {{T}_{0}} > 0.$

Обратимся сначала к аналогичному (1.8) вспомогательному уравнению

(2.3)
$\dot {x} = F(x,{{u}_{\Delta }}),\quad {{u}_{\Delta }} = \varepsilon \sum\limits_{s = 1}^{m - 1} \,G(x(t - s\Delta )).$
Заметим далее, что поскольку при $\varepsilon = 0$ оно переходит в (1.3), то естественно ожидать, что это уравнение допускает цикл $x = x(t,\varepsilon ,\Delta )$ периода $T(\varepsilon ,\Delta ),$ обладающий свойствами
$x(t,0,\Delta ) \equiv {{x}_{0}}(t),\quad T(0,\Delta ) \equiv {{T}_{0}}$
(т.е. асимптотически близкий к (2.2)). Что же касается аналогичного (1.9) уравнения
(2.4)
$T(\varepsilon ,\Delta ) = m\Delta {\text{/}}k,$
то в данном случае оно заведомо имеет решение, асимптотически близкое к $k{{T}_{0}}{\text{/}}m.$

Принимая во внимание перечисленные факты, предположим изначально, что параметр $\Delta $ в (2.3) задается равенством

(2.5)
$\Delta = \frac{{k{{T}_{0}}}}{{m(1 + \varepsilon \delta )}}.$
Здесь натуральное $k:1 \leqslant k \leqslant m - 1$ произвольно фиксировано, а параметр $\delta \in \mathbb{R}$, имеющий порядок единицы, подлежит определению. Выполняя, далее, в уравнении (2.3) замену времени $\tau = (1 + \varepsilon \delta )t,$ приходим к уравнению
(2.6)
$(1 + \varepsilon \delta )\frac{{dx}}{{d\tau }} = F(x,u),\quad u = \varepsilon \sum\limits_{s = 1}^{m - 1} \,G(x(\tau - sk{{T}_{0}}{\text{/}}m)).$
Как будет показано в последующем, при подходящем выборе $\delta = {{\delta }_{{(k)}}}(\varepsilon )$ это уравнение допускает периодическое решение ${{x}_{{(k)}}}(\tau ,\varepsilon ),$ ${{x}_{{(k)}}}(\tau ,0) \equiv {{x}_{0}}(\tau ),$ периода ${{T}_{0}}.$

Перед формулировкой соответствующего строгого результата приведем некоторую дополнительную информацию. Рассмотрим сначала линейную однородную систему

(2.7)
$\dot {h} = {{A}_{0}}(t)h,$
где ${{A}_{0}}(t) = F_{x}^{'}({{x}_{0}}(t),0),$ получающуюся из (1.3) при линеаризации на цикле (2.2). В силу предполагаемой экспоненциальной орбитальной устойчивости этого цикла данная система имеет простой единичный мультипликатор (которому отвечает периодическое решение $h = {{\dot {x}}_{0}}(t)$), а все остальные ее мультипликаторы по модулю меньше единицы. Что же касается соответствующей сопряженной системы
(2.8)
$\dot {g} = - A_{0}^{*}(t)g,$
то она допускает единственное (с точностью до множителя) нетривиальное ${{T}_{0}}$-периодическое решение ${{g}_{0}}(t).$ Всюду ниже считаем, что
(2.9)
$({{\dot {x}}_{0}}(t),{{g}_{0}}(t)) \equiv 1,$
где $( \cdot , \cdot )$ – евклидово скалярное произведение в ${{\mathbb{R}}^{n}}.$

Перейдем далее от (2.7) к неоднородной системе

(2.10)
$\dot {h} = {{A}_{0}}(t)h + f(t)$
с произвольной ${{T}_{0}}$-периодической непрерывной вектор-функцией $f(t) \in {{\mathbb{R}}^{n}}$. Как известно, эта система разрешима в классе ${{T}_{0}}$-периодических функций в том и только том случае, когда правая часть $f(t)$ ортогональна в среднем периодическому решению ${{g}_{0}}(t)$ системы (2.8), т.е.
(2.11)
$M[(f(t),{{g}_{0}}(t))]\;\mathop = \limits^{{\text{def}}} \;\frac{1}{{{{T}_{0}}}}\int\limits_0^{{{T}_{0}}} \,(f(t),{{g}_{0}}(t))dt = 0.$
Если же условие (2.11) выполняется, то система (2.10) имеет единственное ${{T}_{0}}$-периодическое решение ${{h}_{f}}(t),$ удовлетворяющее требованию

(2.12)
$M[({{h}_{f}}(t),{{g}_{0}}(t))] = 0.$

Возвращаясь к системе (2.6) и опираясь на изложенные факты, приходим к следующему утверждению.

Лемма 2.1. Для любого натурального $k:1 \leqslant k \leqslant m - 1$ найдется такое достаточно малое ${{\varepsilon }_{k}} > 0,$ что при всех $0 \leqslant \varepsilon \leqslant {{\varepsilon }_{k}}$ существует единственная пара ${{C}^{\infty }}$-гладких по своим переменным функций

(2.13)
$\begin{gathered} ({{\delta }_{{(k)}}}(\varepsilon ),{{x}_{{(k)}}}(\tau ,\varepsilon ))\,:\quad {{x}_{{(k)}}}(\tau + {{T}_{0}},\varepsilon ) \equiv {{x}_{{(k)}}}(\tau ,\varepsilon ),\quad {{x}_{{(k)}}}(\tau ,0) \equiv {{x}_{0}}(\tau ), \\ M[({{x}_{{(k)}}}(\tau ,\varepsilon ) - {{x}_{0}}(\tau ),{{g}_{0}}(\tau ))] \equiv 0, \\ \end{gathered} $
обращающая уравнение (2.6) в верное равенство.

Доказательство. Выполним в (2.6) замену $x = {{x}_{0}}(\tau ) + \varepsilon h,$ где ${{x}_{0}}(\tau )$ – функция из (2.2), в которой аргумент $t$ заменен на $\tau .$ В результате для новой переменной $h$ получим систему

(2.14)
$\frac{{dh}}{{d\tau }} = {{A}_{0}}(\tau )h + \Phi ,$
где ${{A}_{0}}(\tau ) = F_{x}^{'}({{x}_{0}}(\tau ),0),$
(2.15)
$\Phi = - \varepsilon \delta \frac{{dh}}{{d\tau }} + {{\Phi }_{0}}(\tau ,\delta ) + \varepsilon {{\Phi }_{1}}(\tau ,h,h(\tau - k{{T}_{0}}{\text{/}}m),h(\tau - 2k{{T}_{0}}{\text{/}}m), \ldots ,h(\tau - (m - 1)k{{T}_{0}}{\text{/}}m),\varepsilon ),$
(2.16)
${{\Phi }_{0}}(\tau ,\delta ) = \frac{{\partial F}}{{\partial u}}({{x}_{0}}(\tau ),0)\sum\limits_{s = 1}^{m - 1} \,G({{x}_{0}}(\tau - sk{{T}_{0}}{\text{/}}m)) - \delta {{\dot {x}}_{0}}(\tau ).$
Что же касается вектор-функции ${{\Phi }_{1}}(\tau ,h,{{u}_{1}},{{u}_{2}}, \ldots ,{{u}_{{m - 1}}},\varepsilon ),$ где ${{u}_{s}} \in {{\mathbb{R}}^{n}},$ $s = 1,2, \ldots ,m - 1,$ то ее явный вид несущественен. Важно лишь, что она является ${{T}_{0}}$-периодической по аргументу $\tau $ и ${{C}^{\infty }}$-гладкой по совокупности всех своих переменных.

При анализе системы (2.14) нам потребуются банаховы пространства ${{C}_{{{\text{per}}}}}$ и $C_{{{\text{per}}}}^{1},$ состоящие из периодических с периодом ${{T}_{0}}$ вектор-функций $f(\tau ) \in C(\mathbb{R};{{\mathbb{R}}^{n}})$ и $f(\tau ) \in {{C}^{1}}(\mathbb{R};{{\mathbb{R}}^{n}})$ соответственно. Кроме того, считаем, что в обоих случаях выполнены аналогичные (2.11) равенства

(2.17)
$M[(f(\tau ),{{g}_{0}}(\tau ))] = 0,$
где ${{g}_{0}}(\tau )$ получается из ${{g}_{0}}(t)$ при замене $t$ на $\tau ,$ а $M[\, \cdot \,]$ – среднее значение по $\tau .$ Нормы в ${{C}_{{{\text{per}}}}}$ и $C_{{{\text{per}}}}^{1}$ зададим формулами
${{\left\| f \right\|}_{{{{C}_{{{\text{per}}}}}}}} = \mathop {max}\limits_{0 \leqslant \tau \leqslant {{T}_{0}}} \left\| {f(\tau )} \right\|,\quad {{\left\| f \right\|}_{{C_{{{\text{per}}}}^{1}}}} = {{\left\| f \right\|}_{{{{C}_{{{\text{per}}}}}}}} + \mathop {\left| {\left| {\frac{{df}}{{d\tau }}} \right|} \right|}\nolimits_{{{C}_{{{\text{per}}}}}} ,$
где здесь и в последующем $\left\| {\, \cdot \,} \right\|$ – евклидова норма в ${{\mathbb{R}}^{n}}.$

Перейдем далее от (2.14) к модифицированной системе

(2.18)
$\Pi h = \Phi - M[(\Phi ,{{g}_{0}}(\tau ))]\mathop {\dot {x}}\nolimits_0 (\tau ),$
где, как и в (2.17), $M[\, \cdot \,]$ – среднее значение по $\tau ,$ а линейный оператор $\Pi $ имеет вид
$\Pi h = \frac{{dh}}{{d\tau }} - {{A}_{0}}(\tau )h.$
Заметим, что в силу соотношений (2.9) – (2.12), (2.15), (2.16) правая часть равенства (2.18) в случае $h \in C_{{{\text{per}}}}^{1}$ принадлежит пространству ${{C}_{{{\text{per}}}}},$ а оператор $\Pi $ допускает непрерывный обратный ${{\Pi }^{{ - 1}}}:{{C}_{{{\text{per}}}}} \to C_{{{\text{per}}}}^{1}.$ Таким образом, вопрос о разрешимости системы (2.18) в пространстве $C_{{{\text{per}}}}^{1}$ эквивалентен разрешимости соответствующего операторного уравнения

(2.19)
$h = {{\Pi }^{{ - 1}}}\{ \Phi - M[(\Phi ,{{g}_{0}}(\tau ))]{{\dot {x}}_{0}}(\tau )\} .$

При анализе уравнения (2.19) будем предполагать, что параметр $\delta $ пробегает некоторый произвольно фиксированный компакт $\Omega $ (выбором которого распорядимся позднее). Далее, положим

${{R}_{0}} = \mathop {max}\limits_{\delta \in \Omega } {{\left\| {{{h}_{0}}(\tau ,\delta )} \right\|}_{{C_{{{\text{per}}}}^{1}}}},$
где ${{h}_{0}}(\tau ,\delta ) = {{\Pi }^{{ - 1}}}\{ {{\Phi }_{0}} - M[({{\Phi }_{0}},{{g}_{0}}(\tau ))]{{\dot {x}}_{0}}(\tau )\} ,$ ${{\Phi }_{0}}$ – функция (2.16), и фиксируем величину $R > {{R}_{0}}.$ Опираясь на соотношения (2.15), (2.16), нетрудно убедиться, что при всех достаточно малых $\varepsilon $ правая часть уравнения (2.19) порождает в пространстве $C_{{{\text{per}}}}^{1}$ нелинейный оператор, переводящий в себя шар радиуса $R$ этого пространства с центром в нуле и являющийся сжимающим (с константой сжатия порядка $\varepsilon $). А отсюда и из принципа сжимающих отображений заключаем, что данное уравнение имеет единственное решение
(2.20)
$h = {{h}_{*}}(\tau ,\varepsilon ,\delta ),\quad {{h}_{*}} \in C_{{{\text{per}}}}^{1},\quad {{\left\| {{{h}_{*}}} \right\|}_{{C_{{{\text{per}}}}^{1}}}} \leqslant R.$
Добавим еще, что в силу ${{C}^{\infty }}$-гладкости по $\tau ,\varepsilon ,\delta $ функций (2.15), (2.16) таковой является и функция (2.20).

На завершающем этапе доказательства леммы определим имеющийся в запасе параметр $\delta $ из уравнения

(2.21)
$M[(\Phi ,{{g}_{0}}(\tau ))] = 0.$
Подставляя в это уравнение уже найденную функцию (2.20) и опираясь на формулы (2.15), (2.16), приходим к выводу, что оно записывается в виде
(2.22)
$\delta = {{\delta }_{{0,k}}} + \varepsilon {{\Sigma }_{{(k)}}}(\varepsilon ,\delta ),$
где
(2.23)
${{\delta }_{{0,k}}} = M\left[ {\left( {\frac{{\partial F}}{{\partial u}}({{x}_{0}}(\tau ),0)\sum\limits_{s = 1}^{m - 1} \,G({{x}_{0}}(\tau - sk{{T}_{0}}{\text{/}}m)),{{g}_{0}}(\tau )} \right)} \right],$
а ${{\Sigma }_{{(k)}}}(\varepsilon ,\delta )$ – некоторая C -гладкая по $\varepsilon ,\delta $ скалярная функция. Далее, будем считать множество $\Omega $ изменения параметра $\delta $ таковым, что значение (2.23) является его внутренней точкой. Тогда, очевидно, уравнение (2.22) допускает единственное решение $\delta = {{\delta }_{{(k)}}}(\varepsilon ),$ ${{\delta }_{{(k)}}}(0) = {{\delta }_{{0,k}}}.$ Кроме того, из равенства (2.21) следует, что функция ${{h}_{{(k)}}}(\tau ,\varepsilon ) = {{h}_{*}}(\tau ,\varepsilon ,\delta ){{{\text{|}}}_{{\delta = {{\delta }_{{(k)}}}(\varepsilon )}}}$ удовлетворяет уравнению (2.14) при $\delta = {{\delta }_{{(k)}}}(\varepsilon ).$ Полагая затем ${{x}_{{(k)}}}(\tau ,\varepsilon ) = {{x}_{0}}(\tau ) + \varepsilon {{h}_{{(k)}}}(\tau ,\varepsilon ),$ получаем искомую пару функций (2.13). Лемма 2.1 доказана.

Обратим внимание на тот факт, что уравнение (2.22) для отыскания $\delta $ совпадает с уравнением (2.4) при условии (2.5). Таким образом, в процессе обоснования леммы 2.1 мы одновременно нашли требуемый цикл $x(t,\varepsilon ,\Delta )$ уравнения (2.3) и решили уравнение (2.4). А отсюда и из теоремы 1.1 вытекает следующая

Теорема 2.1. Для любого натурального $k:1 \leqslant k \leqslant m - 1$ существует такое достаточно малое ${{\varepsilon }_{k}} > 0,$ что при $0 \leqslant \varepsilon \leqslant {{\varepsilon }_{k}}$ система (2.1) допускает каноническую бегущую волну

(2.24)
${{x}_{j}} = {{x}_{{(k)}}}(\tau + (j - 1)k{{T}_{0}}{\text{/}}m,\varepsilon ),\quad \tau = (1 + \varepsilon {{\delta }_{{(k)}}}(\varepsilon ))t,\quad j = 1,2, \ldots ,m,$
где ${{x}_{{(k)}}}(\tau ,\varepsilon ),{{\delta }_{{(k)}}}(\varepsilon )$функции (2.13).

Согласно изложенной в разд. 1 методике вопрос об устойчивости бегущей волны (2.24) связан с анализом соответствующего уравнения (1.14). В нашем случае после замены времени $\tau = (1 + \varepsilon {{\delta }_{{(k)}}}(\varepsilon ))t$ упомянутое уравнение приобретает вид

(2.25)
$(1 + \varepsilon {{\delta }_{{(k)}}}(\varepsilon ))\frac{{dh}}{{d\tau }} = A(\tau ,\varepsilon )h + \varepsilon B(\tau ,\varepsilon )\sum\limits_{s = 1}^{m - 1} \,{{\varkappa }^{s}}C(\tau - sk{{T}_{0}}{\text{/}}m,\varepsilon )h(\tau - sk{{T}_{0}}{\text{/}}m),$
где

(2.26)
$\begin{gathered} A(\tau ,\varepsilon ) = \frac{{\partial F}}{{\partial x}}({{x}_{{(k)}}}(\tau ,\varepsilon ),{{u}_{{(k)}}}(\tau ,\varepsilon )),\quad B(\tau ,\varepsilon ) = \frac{{\partial F}}{{\partial u}}({{x}_{{(k)}}}(\tau ,\varepsilon ),{{u}_{{(k)}}}(\tau ,\varepsilon )), \\ C(\tau ,\varepsilon ) = G_{x}^{'}({{x}_{{(k)}}}(\tau ,\varepsilon )),\quad {{u}_{{(k)}}}(\tau ,\varepsilon ) = \varepsilon \sum\limits_{s = 1}^{m - 1} \,G({{x}_{{(k)}}}(\tau - sk{{T}_{0}}{\text{/}}m,\varepsilon )). \\ \end{gathered} $

Перед формулировкой строгого утверждения о расположении мультипликаторов уравнения (2.25) введем некоторые обозначения. Для этого нам потребуются тейлоровские разложения

(2.27)
$\begin{gathered} A(\tau ,\varepsilon ) = {{A}_{0}}(\tau ) + \varepsilon {{A}_{1}}(\tau ) + \ldots ,\quad B(\tau ,\varepsilon ) = {{B}_{0}}(\tau ) + \varepsilon {{B}_{1}}(\tau ) + \ldots , \\ C(\tau ,\varepsilon ) = {{C}_{0}}(\tau ) + \varepsilon {{C}_{1}}(\tau ) + \ldots \\ \end{gathered} $
коэффициентов (2.26). Здесь ${{A}_{0}}(\tau )$ – матрица из (2.14), а матрицы ${{B}_{0}}(\tau ),$ ${{C}_{0}}(\tau )$ задаются равенствами ${{B}_{0}}(\tau ) = F_{u}^{'}({{x}_{0}}(\tau ),0),$ ${{C}_{0}}(\tau ) = G_{x}^{'}({{x}_{0}}(\tau )).$ Опираясь на формулы (2.27), положим
(2.28)
$\begin{gathered} {{\alpha }_{{0,k}}} = M[({{A}_{1}}(\tau ){{{\dot {x}}}_{0}}(\tau ) - {{\delta }_{{0,k}}}{{{\ddot {x}}}_{0}}(\tau ),{{g}_{0}}(\tau ))], \\ {{\alpha }_{{s,k}}} = M[({{B}_{0}}(\tau ){{C}_{0}}(\tau - sk{{T}_{0}}{\text{/}}m){{{\dot {x}}}_{0}}(\tau - sk{{T}_{0}}{\text{/}}m),{{g}_{0}}(\tau ))],\quad s = 1,2, \ldots ,m - 1, \\ \end{gathered} $
где ${{\delta }_{{0,k}}}$ – величина (2.23). И наконец, обозначим через ${{\nu }_{l}}(\varkappa ,\varepsilon ),$ $l = 1,2, \ldots ,$ – мультипликаторы уравнения (2.25), занумерованные в порядке убывания модулей. Имеет место следующая

Лемма 2.2. Для любого фиксированного $R > 0$ найдутся такое достаточно малое значение ${{\varepsilon }_{0}} = {{\varepsilon }_{0}}(R) > 0$ и такая постоянная $q = q(R) \in (0,1),$ что при $0 \leqslant \varepsilon \leqslant {{\varepsilon }_{0}},$ $\varkappa \in \mathbb{C},$ $\left| \varkappa \right| \leqslant R$, уравнение (2.25) имеет простой аналитически зависящий от $\varkappa $ мультипликатор ${{\nu }_{1}}(\varkappa ,\varepsilon ),$ ${{\nu }_{1}}(1,\varepsilon ) \equiv 1,$ с асимптотикой

(2.29)
${{\nu }_{1}}(\varkappa ,\varepsilon ) = 1 + \varepsilon {{T}_{0}}\sum\limits_{s = 0}^{m - 1} \,\alpha _{{s,k}}^{{}}{{\varkappa }^{s}} + O({{\varepsilon }^{2}}),\quad \frac{{\partial {{\nu }_{1}}}}{{\partial \varkappa }}(\varkappa ,\varepsilon ) = \varepsilon {{T}_{0}}\sum\limits_{s = 1}^{m - 1} \,s\alpha _{{s,k}}^{{}}{{\varkappa }^{{s - 1}}} + O({{\varepsilon }^{2}}),\quad \varepsilon \to 0.$
Остальные же мультипликаторы ${{\nu }_{l}}(\varkappa ,\varepsilon ),$ $l \geqslant 2$, этого уравнения лежат в круге $\{ \varkappa \in \mathbb{C}:{\text{|}}\varkappa {\kern 1pt} {\text{|}} \leqslant q\} .$

Доказательство. Для доказательства заметим, что за исключением формул (2.29) все утверждения леммы очевидны. Действительно, если параметр $\varkappa $ принадлежит фиксированному шару $\{ \varkappa \in \mathbb{C}:{\text{|}}\varkappa {\kern 1pt} {\text{|}} \leqslant R\} ,$ то при $\varepsilon \to 0$ уравнение (2.25) переходит в уравнение, получающееся из (2.7) при замене $t$ на $\tau .$ Тем самым, при $\varepsilon \to 0$ равномерно по $\varkappa $ все мультипликаторы ${{\nu }_{l}}(\varkappa ,\varepsilon ),$ $l \geqslant 1$, стремятся либо к мультипликаторам системы (2.7), либо к нулю. А отсюда, в свою очередь, заключаем, что

${{\nu }_{1}}(\varkappa ,\varepsilon ) = 1 + O(\varepsilon ),\quad \varepsilon \to 0,\quad \left| {{{\nu }_{l}}(\varkappa ,\varepsilon )} \right| \leqslant q,\quad l \geqslant 2,$
где постоянная $q = q(R) \in (0,1)$ не зависит от $\varepsilon ,$ $\varkappa $$,$ $l.$ Добавим еще, что мультипликатор ${{\nu }_{1}}(\varkappa ,\varepsilon )$ в силу его простоты аналитичен по параметру $\varkappa $ и ${{\nu }_{1}}(1,\varepsilon ) \equiv 1$ (поскольку при $\varkappa = 1$ уравнение (2.25) есть линеаризация уравнения (2.6) при $\delta = {{\delta }_{{(k)}}}(\varepsilon )$ на цикле $x = {{x}_{{(k)}}}(\tau ,\varepsilon )$).

Итак, осталось установить формулы (2.29). Для этого нам потребуется отвечающее мультипликатору ${{\nu }_{1}}(\varkappa ,\varepsilon )$ решение Ляпунова-Флоке. Поскольку указанный мультипликатор является простым, то это решение единственно (с точностью до множителя) и имеет вид

(2.30)
$h = [{{h}_{0}}(\tau ) + \varepsilon {{h}_{1}}(\tau ) + O({{\varepsilon }^{2}})]exp[(\varepsilon \alpha + O({{\varepsilon }^{2}}))\tau ],\quad {{h}_{0}}(\tau ) = {{\dot {x}}_{0}}(\tau ),\quad \alpha = {\text{const}} \in \mathbb{C}.$
Далее, подставим соотношения (2.30) в (2.25) и приравняем коэффициенты при $\varepsilon $ в левой и правой частях получившегося равенства. В результате для нахождения ${{h}_{1}}(\tau )$ приходим к линейной неоднородной системе
$\begin{gathered} \frac{{d{{h}_{1}}}}{{d\tau }} - {{A}_{0}}(\tau ){{h}_{1}} = - {{\delta }_{{0,k}}}{{A}_{0}}(\tau ){{{\dot {x}}}_{0}}(\tau ) + {{A}_{1}}(\tau ){{{\dot {x}}}_{0}}(\tau ) + \\ + \;{{B}_{0}}(\tau )\sum\limits_{s = 1}^{m - 1} \,{{\varkappa }^{s}}{{C}_{0}}(\tau - sk{{T}_{0}}{\text{/}}m){{{\dot {x}}}_{0}}(\tau - sk{{T}_{0}}{\text{/}}m) - \alpha {{{\dot {x}}}_{0}}(\tau ). \\ \end{gathered} $
А так как данная система должна быть разрешимой в классе ${{T}_{0}}$-периодических функций, то автоматически
(2.31)
$\alpha = {{P}_{k}}(\varkappa )\;\mathop = \limits^{{\text{def}}} \;\sum\limits_{s = 0}^{m - 1} \,\alpha _{{s,k}}^{{}}{{\varkappa }^{s}},$
где ${{\alpha }_{{s,k}}},$ $s = 0,1, \ldots ,m - 1$ – коэффициенты (2.28). Остается воспользоваться формулой
${{\nu }_{1}}(\varkappa ,\varepsilon ) = exp[(\varepsilon {{P}_{k}}(\varkappa ) + O({{\varepsilon }^{2}})){{T}_{0}}],$
из которой первое асимптотическое равенство (2.29) вытекает автоматически. Что же касается формулы для $\partial {{\nu }_{1}}(\varkappa ,\varepsilon ){\text{/}}\partial \varkappa ,$ то она устанавливается аналогично. Лемма 2.2 доказана.

Перейдем теперь к анализу расположения корней аналогичных (1.17) уравнений

(2.32)
${{[{{\nu }_{l}}(\varkappa ,\varepsilon )]}^{k}} = {{\varkappa }^{m}},\quad l \in \mathbb{N}.$
Прежде всего, локализуем возможные значения параметра $\varkappa $$.$ С этой целью обозначим через $V(\varepsilon )$ оператор монодромии аналогичной (1.13) линейной системы, отвечающей циклу (2.24), и заметим, что он допускает оценку
${{\left\| {V(\varepsilon )} \right\|}_{{{{\mathbb{R}}^{{nm}}} \to {{\mathbb{R}}^{{nm}}}}}} \leqslant {{R}_{*}}$
с некоторой не зависящей от $\varepsilon $ постоянной ${{R}_{*}} > 1.$ А поскольку модуль любого мультипликатора цикла (2.24) не превосходит нормы оператора $V(\varepsilon ),$ то в силу (1.16) для нас представляют интерес только значения $\varkappa $ из множества

(2.33)
$\{ \varkappa \in \mathbb{C}\,:{\text{|}}\varkappa {\kern 1pt} {\text{|}} \leqslant R_{*}^{{k/m}}\} .$

Обратимся далее к лемме 2.2 и в ее условиях выберем величину $R$ равной $R_{*}^{{k/m}}.$ В результате приходим к выводу, что, во-первых, уравнение (2.32) при $l = 1$ имеет в круге (2.33) ровно $m$ корней

(2.34)
${{\varkappa }_{0}} = 1,\quad {{\varkappa }_{r}}(\varepsilon ) = {{\theta }_{r}}\left( {1 + \varepsilon \frac{k}{m}{{T}_{0}}{{P}_{k}}({{\theta }_{r}})} \right) + O({{\varepsilon }^{2}}),\quad r = 1,2, \ldots ,m - 1,$
где ${{\theta }_{r}} = exp(2\pi ir{\text{/}}m)$ – корни степени $m$ из единицы; во-вторых, все корни уравнений (2.32) при $l \geqslant 2$ лежат в круге $\{ \varkappa \in \mathbb{C}:{\text{|}}\varkappa {\kern 1pt} {\text{|}} < 1\} .$

Подведем итог. Опираясь на теорему 1.2 и формулы (2.34), получаем набор из $m$ так называемых критических мультипликаторов

${{\nu }_{0}}(\varepsilon ) \equiv 1,\quad {{\nu }_{r}}(\varepsilon ) = {{\left. {{{\nu }_{1}}(\varkappa ,\varepsilon )} \right|}_{{\varkappa = {{\varkappa }_{r}}(\varepsilon )}}} = 1 + \varepsilon {{T}_{0}}{{P}_{k}}({{\theta }_{r}}) + O({{\varepsilon }^{2}}),\quad r = 1,2, \ldots ,m - 1,$
цикла (2.24), асимптотически близких к единице. Нетрудно увидеть, что при $\varepsilon \to 0$ для их модулей справедливы асимптотические представления
(2.35)
${\text{|}}{{\nu }_{r}}(\varepsilon ){\kern 1pt} {\text{|}} = 1 + \varepsilon {{T}_{0}}\operatorname{Re} ({{P}_{k}}({{\theta }_{r}})) + O({{\varepsilon }^{2}}),\quad r = 0,1, \ldots ,m - 1,$
где ${{P}_{k}}(\varkappa )$ – многочлен (2.31). Остальные же мультипликаторы интересующего нас цикла по модулю меньше единицы. А отсюда, в свою очередь, вытекает следующее утверждение.

Теорема 2.2. Цикл (2.24), доставляемый теоремой 2.1, экспоненциально орбитально устойчив при всех достаточно малых $\varepsilon > 0$ и при условиях

(2.36)
$\operatorname{Re} ({{P}_{k}}({{\theta }_{r}})) < 0,\quad r = 1,2, \ldots ,m - 1.$
Если же выполнено хотя бы одно противоположное строгое неравенство, то он неустойчив.

Перепишем условия (2.36) в виде, более удобном для последующего анализа. Для этого нам потребуется свойство ${{P}_{k}}(1) = 0$ многочлена (2.31), вытекающее из равенств ${{\nu }_{0}}(\varepsilon ) = 1,$ ${{\theta }_{0}} = 1$ и представления (2.35) при $r = 0.$ Объединяя данное свойство с явной формулой для ${{P}_{k}}(\varkappa )$ и формулами для ${{\theta }_{r}},$ $r = 1,2, \ldots ,m - 1,$ приходим к выводу, что неравенства (2.36) эквивалентны оценкам

(2.37)
${{\lambda }_{{r,k}}}\;\mathop = \limits^{{\text{def}}} \;\sum\limits_{s = 1}^{m - 1} \,\left( {1 - cos\left( {\frac{{2\pi rs}}{m}} \right)} \right){{\alpha }_{{s,k}}} > 0,\quad r = 1,2, \ldots ,m - 1,$
где, напомним, ${{\alpha }_{{s,k}}}$ – коэффициенты из (2.28).

В свою очередь, формулы для величин ${{\lambda }_{{r,k}}}$ также можно преобразовать к более удобному виду. Для того чтобы сделать это, введем некоторые обозначения. Во-первых, для любого $p \in \mathbb{Z}$ положим

(2.38)
${{\delta }_{p}} = \sum\limits_{s = 1}^{m - 1} {\exp \left( {\frac{{2\pi ips}}{m}} \right) = \left\{ \begin{gathered} m - 1\quad {\text{при}}\quad p = 0\,(\bmod m), \hfill \\ - 1\quad {\text{при}}\quad p \ne 0\,(\bmod m) \hfill \\ \end{gathered} \right.} $
и заметим, что
(2.39)
${{\delta }_{p}} = {{\delta }_{{ - p}}},\quad {{\delta }_{{p \pm m}}} = {{\delta }_{p}}\quad \forall p \in \mathbb{Z}.$
Во-вторых, рассмотрим периодические с периодом 1 функции
(2.40)
$\varphi (\theta ) = M[({{B}_{0}}(\tau )G({{x}_{0}}(\tau - \theta {{T}_{0}})),{{g}_{0}}(\tau ))],\quad \psi (\theta ) = - \frac{1}{{{{T}_{0}}}}\varphi {\kern 1pt} '(\theta ),$
где среднее значение $M[\, \cdot \,]$, как и в (2.28), берется по переменной $\tau .$ Из формул (2.40) очевидным образом следует, что ряд Фурье функции $\psi (\theta )$ не содержит нулевой гармоники, т.е. имеет вид:
(2.41)
$\psi (\theta ) = \sum\limits_{p = 1}^\infty \,({{c}_{p}}exp(2\pi ip\theta ) + {{\bar {c}}_{p}}exp( - 2\pi ip\theta )),$
где ${{c}_{p}} \in \mathbb{C},\;p \geqslant 1,$ а чертой сверху здесь и далее обозначается комплексное сопряжение.

Возвращаясь к выражениям для ${{\lambda }_{{r,k}}},$ подставим в них соотношения

${{\alpha }_{{s,k}}} = \psi (ks{\text{/}}m),\quad s = 1,2, \ldots ,m - 1,$
вместе с рядом (2.41) и привлечем равенства (2.38), (2.39). В результате после несложных преобразований приходим к выводу, что

(2.42)
${{\lambda }_{{r,k}}} = \sum\limits_{p = 1}^\infty \,\operatorname{Re} ({{c}_{p}})(2{{\delta }_{{pk}}} - {{\delta }_{{pk + r}}} - {{\delta }_{{pk - r}}}),\quad r = 1,2, \ldots ,m - 1.$

Завершая рассмотрение случая слабо связанных осцилляторов, отметим, что поскольку условия устойчивости (2.37) бегущей волны (2.24) формулируются в терминах нелокального цикла (2.2), то возникает вопрос об их принципиальной реализуемости. Для решения этого вопроса достаточно привести конкретный пример, в котором упомянутые условия выполняются. Соответствующая система (2.1) описывается ниже.

В качестве парциальной системы (1.3) возьмем двумерную систему, которая в комплексной форме записи допускает представление

(2.43)
$\dot {z} = z - (1 - i{{\omega }_{0}}){\text{|}}z{\kern 1pt} {{{\text{|}}}^{2}}z,\quad z = x + iy,\quad x,y \in \mathbb{R},\quad {{\omega }_{0}} = {\text{const}} > 0.$
Непосредственная проверка показывает, что эта система имеет экспоненциально орбитально устойчивый гармонический цикл
(2.44)
${{z}_{0}}(t) = exp(i{{\omega }_{0}}t).$
Далее, отвечающие циклу (2.44) линейные системы (2.7), (2.8) могут быть представлены в виде
$\begin{gathered} \dot {h} = ( - 1 + 2i{{\omega }_{0}})h - (1 - i{{\omega }_{0}})exp(2i{{\omega }_{0}}t)\bar {h},\quad h = {{h}_{1}} + i{{h}_{2}},\quad {{h}_{1}},{{h}_{2}} \in \mathbb{R}, \\ \dot {g} = (1 + 2i{{\omega }_{0}})g + (1 - i{{\omega }_{0}})exp(2i{{\omega }_{0}}t)\bar {g},\quad g = {{g}_{1}} + i{{g}_{2}},\quad {{g}_{1}},{{g}_{2}} \in \mathbb{R}. \\ \end{gathered} $
Несложный подсчет показывает, что интересующие нас периодические решения $h = {{h}_{0}}(t),$ $g = {{g}_{0}}(t)$ этих систем, удовлетворяющие аналогичному (2.9) условию ${{h}_{0}}(t){{\bar {g}}_{0}}(t) + {{\bar {h}}_{0}}(t){{g}_{0}}(t) \equiv 1,$ задаются равенствами

(2.45)
${{h}_{0}}(t) = i{{\omega }_{0}}exp(i{{\omega }_{0}}t),\quad {{g}_{0}}(t) = \frac{1}{{2{{\omega }_{0}}}}({{\omega }_{0}} + i)exp(i{{\omega }_{0}}t).$

Рассмотрим теперь полносвязную сеть осцилляторов (2.43) вида

(2.46)
где ${{z}_{j}} = {{x}_{j}} + i{{y}_{j}},$ ${{x}_{j}},{{y}_{j}} \in \mathbb{R},$ $0 < \varepsilon \ll 1,$ $d = {\text{const}} \in \mathbb{C}.$ Опираясь на формулы (2.40)(2.42), (2.44), (2.45), нетрудно убедиться, что в данном случае
$\begin{gathered} \psi (\theta ) = \frac{m}{2}(\bar {d}(1 - i{{\omega }_{0}})exp(2\pi im\theta ) + d(1 + i{{\omega }_{0}})exp( - 2\pi im\theta )), \\ {{c}_{p}} = \left\{ \begin{gathered} 0\quad {\text{при}}\;p \ne m, \hfill \\ \frac{m}{2}\bar {d}(1 - i{{\omega }_{0}})\quad {\text{при}}\;p = m, \hfill \\ \end{gathered} \right.\quad {{\lambda }_{{r,k}}} = {{m}^{2}}\operatorname{Re} \text{[}\bar {d}(1 - i{{\omega }_{0}})],\quad r = 1,2, \ldots ,m - 1. \\ \end{gathered} $
А это значит, что при выполнении условия
(2.47)
$\operatorname{Re} [\bar {d}(1 - i{{\omega }_{0}})] < 0$
справедливы и неравенства (2.37) при всех $k:1 \leqslant k \leqslant m - 1.$ Тем самым, каждая каноническая бегущая волна вида (2.24) системы (2.46), доставляемая теоремой 2.1, экспоненциально орбитально устойчива. Специфика рассматриваемой системы заключается в том, что эта бегущая волна задается равенствами
(2.48)
${{z}_{j}} = \xi (\varepsilon )exp\left\{ {i\left( {\omega (\varepsilon )t + \frac{{2\pi k}}{m}(j - 1)} \right)} \right\},\quad j = 1,2, \ldots ,m,$
где $\omega (\varepsilon ) = {{\omega }_{0}}{{\xi }^{2}}(\varepsilon ) + \varepsilon (m - 1){{\xi }^{{2(m - 1)}}}(\varepsilon )\operatorname{Im} d,$ а $\xi = \xi (\varepsilon ),$ $\xi (0) = 1$ – корень уравнения

$1 - {{\xi }^{2}} + \varepsilon (m - 1){{\xi }^{{2(m - 1)}}}\operatorname{Re} d = 0.$

Напомним далее, что любая каноническая бегущая волна (2.48) порождает целое семейство устойчивых индуцированных бегущих волн, количество которых равно $(m - 1){\kern 1pt} !$. А это значит, что условие (2.47) гарантирует реализуемость известного явления буферности. Суть данного явления заключается в том, что в случае (2.47) при подходящем уменьшении $\varepsilon $ и увеличении $m$ в системе (2.46) сосуществует любое наперед заданное конечное число устойчивых циклов.

3. РЕЗУЛЬТАТЫ ЧИСЛЕННОГО АНАЛИЗА

В этом разделе изучается вопрос об аттракторах системы (1.1), (1.2) в случае, когда все ее бегущие волны неустойчивы. Ответ на данный вопрос удается получить посредством численного анализа некоторой модельной полносвязной сети нелинейных осцилляторов.

В качестве базовой модели возьмем аналогичную (2.46) систему, имеющую в комплексной форме записи вид:

(3.1)
где ${{z}_{j}} = {{x}_{j}} + i{{y}_{j}},$ ${{x}_{j}},{{y}_{j}} \in \mathbb{R},$ ${{c}_{1}},{{c}_{2}} = {\text{const}} \in \mathbb{R},$ $\nu = {\text{const}} > 0.$ Причины такого выбора модели состоят в том, что, во-первых, система (3.1) является простейшим представителем класса (1.1), (1.2); во-вторых, и это самое главное, ее канонические бегущие волны задаются явными формулами
(3.2)
${{C}_{k}}\,:\quad {{z}_{j}} = {{\xi }_{0}}exp\left\{ {i\left( {{{\sigma }_{0}}t + \frac{{2\pi k}}{m}(j - 1)} \right)} \right\},\quad j = 1,2, \ldots ,m,$
где $k = 1,2, \ldots ,m - 1,$
(3.3)
${{\xi }_{0}} = \sqrt {1 + \nu } ,\quad {{\sigma }_{0}} = - {{c}_{1}}\xi _{0}^{2} + \nu {{c}_{2}}.$
Следовательно, мы можем выписать явно и условия их неустойчивости.

Для того чтобы сделать это, введем в рассмотрение квадратичный полином

(3.4)
${{Q}_{m}}(\nu ) = {{q}_{{1,m}}}{{\nu }^{2}} + {{q}_{{2,m}}}\nu + {{q}_{{3,m}}}$
переменной $\nu ,$ где
(3.5)
$\begin{gathered} {{q}_{{1,m}}} = {{(2 + m)}^{2}}(1 + {{c}_{1}}{{c}_{2}}) - (2 + m)m{{c}_{2}}({{c}_{1}} - {{c}_{2}}) - m{{({{c}_{1}} - {{c}_{2}})}^{2}}, \\ {{q}_{{2,m}}} = 4(2 + m)(1 + {{c}_{1}}{{c}_{2}}) - 2m{{c}_{2}}({{c}_{1}} - {{c}_{2}}) - m{{({{c}_{1}} - {{c}_{2}})}^{2}},\quad {{q}_{{3,m}}} = 4(1 + {{c}_{1}}{{c}_{2}}). \\ \end{gathered} $
Справедливо следующее утверждение.

Теорема 3.1. Любая бегущая волна (3.2), (3.3) с номером $k \ne m{\text{/}}2$ неустойчива при выполнении неравенства

(3.6)
${{Q}_{m}}(\nu ) < 0,$
где ${{Q}_{m}}(\nu )$ – многочлен (3.4) с коэффициентами (3.5). В случае же $k = m{\text{/}}2$ соответствующая бегущая волна неустойчива при условии

(3.7)
$\nu m(1 + c_{2}^{2}) + 2(1 + {{c}_{1}}{{c}_{2}})(1 + \nu ) < 0.$

Доказательство. Выполним в системе (3.1) замены

${{z}_{j}} = (1 + {{h}_{j}}){{\xi }_{0}}exp\left\{ {i\left( {{{\sigma }_{0}}t + \frac{{2\pi k}}{m}(j - 1)} \right)} \right\},\quad j = 1,2, \ldots ,m,$
и отбросим нелинейные по ${{h}_{j}},$ ${{\bar {h}}_{j}}$ слагаемые. В результате приходим к линейной системе
(3.8)
$\begin{gathered} {{{\dot {h}}}_{j}} = - (1 + i{{c}_{1}})\xi _{0}^{2}({{h}_{j}} + {{{\bar {h}}}_{j}}) - \nu (1 + i{{c}_{2}})exp\left( { - i\frac{{2\pi k}}{m}(j - 1)} \right)\sum\limits_{s = 1}^m \,{{h}_{s}}exp\left( {i\frac{{2\pi k}}{m}(s - 1)} \right), \\ j = 1,2, \ldots ,m, \\ \end{gathered} $
с постоянными коэффициентами. Далее, дополним (3.8) уравнениями для ${{\bar {h}}_{j}}$, $j = 1,2, \ldots ,m$, и обозначим через $\Lambda = {{\Lambda }_{{2m \times 2m}}}$ матрицу получившейся системы. Нетрудно заметить, что спектр этой матрицы совпадает с собственными значениями спектральной задачи
(3.9)
$\begin{gathered} - (1 + i{{c}_{1}})\xi _{0}^{2}({{{v}}_{j}} + {{w}_{j}}) - \nu (1 + i{{c}_{2}})exp\left( { - i\frac{{2\pi k}}{m}(j - 1)} \right)\sum\limits_{s = 1}^m \,{{{v}}_{s}}exp\left( {i\frac{{2\pi k}}{m}(s - 1)} \right) = \lambda {{{v}}_{j}}, \\ - (1 - i{{c}_{1}})\xi _{0}^{2}({{{v}}_{j}} + {{w}_{j}}) - \nu (1 - i{{c}_{2}})exp\left( {i\frac{{2\pi k}}{m}(j - 1)} \right)\sum\limits_{s = 1}^m \,{{w}_{s}}exp\left( { - i\frac{{2\pi k}}{m}(s - 1)} \right) = \lambda {{w}_{j}}, \\ \end{gathered} $
где ${{{v}}_{j}},\;{{w}_{j}},$ $j = 1,2, \ldots ,m$ – независимые комплексные переменные.

Итак, проблема устойчивости бегущей волны (3.2), (3.3) сводится к анализу расположения спектра задачи (3.9). Для вычисления собственных значений последней фиксируем целое $r:0 \leqslant r \leqslant m - 1$ и положим

${{{v}}_{j}} = {{{v}}_{{(r)}}}exp\left( { - i\frac{{2\pi r}}{m}(j - 1)} \right),\quad {{w}_{j}} = {{w}_{{(r)}}}exp\left( { - i\frac{{2\pi r}}{m}(j - 1)} \right),\quad j = 1,2, \ldots ,m.$
В результате для компонент ${{{v}}_{{(r)}}},\;{{w}_{{(r)}}}$ в случае $r \ne m - k,k$ приходим к спектральной задаче вида
(3.10)
$ - (1 + i{{c}_{1}})\xi _{0}^{2}({{{v}}_{{(r)}}} + {{w}_{{(r)}}}) = \lambda {{{v}}_{{(r)}}},\quad - {\kern 1pt} (1 - i{{c}_{1}})\xi _{0}^{2}({{{v}}_{{(r)}}} + {{w}_{{(r)}}}) = \lambda {{w}_{{(r)}}}.$
Что же касается собственных значений задачи (3.10), то они задаются равенствами

(3.11)
$\lambda = 0,\quad \lambda = - 2\xi _{0}^{2}.$

Случаи $r = m - k,\;k \ne m{\text{/}}2;$ $r = k,\;k \ne m{\text{/}}2;$ $r = m{\text{/}}2,\;k = m{\text{/}}2$ требуют отдельного рассмотрения. Несложная проверка показывает, что в первом из них имеем дело с задачей

(3.12)
$ - (1 + i{{c}_{1}})\xi _{0}^{2}({{{v}}_{{(r)}}} + {{w}_{{(r)}}}) = \lambda {{{v}}_{{(r)}}},\quad - {\kern 1pt} (1 - i{{c}_{1}})\xi _{0}^{2}({{{v}}_{{(r)}}} + {{w}_{{(r)}}}) - \nu (1 - i{{c}_{2}})m{{w}_{{(r)}}} = \lambda {{w}_{{(r)}}},$
во втором приходим к задаче
(3.13)
$ - (1 + i{{c}_{1}})\xi _{0}^{2}({{{v}}_{{(r)}}} + {{w}_{{(r)}}}) - \nu (1 + i{{c}_{2}})m{{{v}}_{{(r)}}} = \lambda {{{v}}_{{(r)}}},\quad - {\kern 1pt} (1 - i{{c}_{1}})\xi _{0}^{2}({{{v}}_{{(r)}}} + {{w}_{{(r)}}}) = \lambda {{w}_{{(r)}}},$
а в третьем получаем задачу
(3.14)
$\begin{gathered} - (1 + i{{c}_{1}})\xi _{0}^{2}({{{v}}_{{(r)}}} + {{w}_{{(r)}}}) - \nu (1 + i{{c}_{2}})m{{{v}}_{{(r)}}} = \lambda {{{v}}_{{(r)}}}, \hfill \\ - (1 - i{{c}_{1}})\xi _{0}^{2}({{{v}}_{{(r)}}} + {{w}_{{(r)}}}) - \nu (1 - i{{c}_{2}})m{{w}_{{(r)}}} = \lambda {{w}_{{(r)}}}. \hfill \\ \end{gathered} $
Остается добавить, что задачи (3.12), (3.13) при условии (3.6) допускают собственные значения в полуплоскости $\{ \lambda \in \mathbb{C}:\operatorname{Re} \lambda > 0\} ,$ а задача (3.14) обладает этим свойством при выполнении условия (3.7). Теорема 3.1 доказана.

Интересно отметить, что в силу (3.10), (3.11) при $m \geqslant 4$ в спектре устойчивости любой бегущей волны (3.2), (3.3) имеется более одного нулевого характеристического показателя. Связано это с тем, что бегущие волны ${{C}_{k}}$ включены в некоторый континуум периодических решений системы (3.1). Действительно, данная система допускает семейство циклов вида

${{z}_{j}} = {{\xi }_{0}}\exp \{ i({{\sigma }_{0}}t + {{\varphi }_{j}})\} ,\quad j = 1,2, \ldots ,m,$
где ${{\xi }_{0}},{{\sigma }_{0}}$ – величины (3.3). Что же касается постоянных ${{\varphi }_{j}} \in \mathbb{R},$ то они удовлетворяют равенству
$\sum\limits_{s = 1}^m \,exp(i{{\varphi }_{s}}) = 0,$
а в остальном произвольны.

Остановимся еще на одном стационарном режиме системы (3.1), который выписывается явно. Это так называемый однородный цикл, существующий при $\nu (m - 1) < 1$ и задающийся равенствами

(3.15)
${{z}_{j}} = {{\xi }_{0}}exp(i{{\sigma }_{0}}t),\quad {{\xi }_{0}} = \sqrt {1 - \nu (m - 1)} ,\quad {{\sigma }_{0}} = - {{c}_{1}}\xi _{0}^{2} - \nu (m - 1){{c}_{2}},\quad j = 1,2, \ldots ,m.$
Аналогом теоремы 3.1 в данном случае является следующая

Теорема 3.2. Однородный цикл (3.15) экспоненциально орбитально устойчив при условиях

(3.16)
$ - 1 + \nu (2m - 1) < 0,\quad \nu m(1 + c_{2}^{2}) - 2(1 - \nu (m - 1))(1 + {{c}_{1}}{{c}_{2}}) > 0$
и неустойчив при строгом нарушении хотя бы одного из этих неравенств.

На доказательстве данной теоремы не останавливаемся, поскольку оно вполне аналогично обоснованию теоремы 3.1.

Обратимся теперь к интересующему нас вопросу об аттракторах системы (3.1) при условии неустойчивости всех ее бегущих волн. Ответ на него дает численный анализ этой системы, который проводился при $m = 5$ и при различных значениях параметров $\nu ,$ ${{c}_{1}},$ ${{c}_{2}}.$

Начнем со случая

(3.17)
$m = 5,\quad {{c}_{1}} = 5,\quad {{c}_{2}} = - 1.$
Нетрудно заметить, что при указанных $m,$ ${{c}_{1}},$ ${{c}_{2}}$ и при любом $\nu > 0$ неравенство (3.6) выполняется, а значит, все бегущие волны (3.2), (3.3) неустойчивы. Устойчивыми же здесь при соответствующем выборе $\nu $ могут оказаться хаотические режимы. Например, при условиях (3.17) и при $\nu = 1$ система (3.1) допускает хаотический аттрактор с ляпуновскими показателями
$\begin{gathered} {{\lambda }_{1}} \approx 1.83,\quad {{\lambda }_{2}} \approx 1.357,\quad {{\lambda }_{3}} \approx 0.722,\quad {{\lambda }_{4}} = {{\lambda }_{5}} = 0,\quad {{\lambda }_{6}} \approx - 0.349,\quad {{\lambda }_{7}} \approx - 1.656, \\ {{\lambda }_{8}} \approx - 2.934,\quad {{\lambda }_{9}} \approx - 5.935,\quad {{\lambda }_{{10}}} \approx - 8.53 \\ \end{gathered} $
(наличие двух нулевых показателей обусловлено тем обстоятельством, что помимо сдвига по времени система (3.1) инвариантна по отношению к замене переменных вида $exp(i\alpha ){{z}_{j}} \to {{z}_{j}},$ $j = 1,2, \ldots ,m,$ $\alpha = {\text{const}} \in \mathbb{R}.$) Проекция этого аттрактора на плоскость $({{x}_{1}},{{x}_{2}}),$ ${{x}_{1}} = \operatorname{Re} {{z}_{1}},$ ${{x}_{2}} = \operatorname{Re} {{z}_{2}},$ представлена на фиг. 1.

Фиг. 1.

Следует отметить, что в случае (3.17) система (3.1) имеет устойчивые хаотические режимы и при других значениях параметра $\nu .$ А именно, хаотический аттрактор реализуется в ней при $1 \leqslant \nu \leqslant 10.$ График зависимости от $\nu $ его старшего ляпуновского показателя ${{\lambda }_{{max}}},$ построенный по точкам с шагом $0.01,$ показан на фиг. 2.

Фиг. 2.

Впрочем, из факта неустойчивости бегущих волн существование хаотического аттрактора не вытекает автоматически. Действительно, при $m = 5,$ ${{c}_{1}} = 3,$ ${{c}_{2}} = - 2,$ $\nu = 5$ все режимы (3.2), (3.3) неустойчивы, а устойчивым оказывается двумерный инвариантный тор. Вывод о существовании такого тора сделан на основе анализа спектра устойчивости (среди ляпуновских показателей в этом случае имеется два нулевых, а остальные отрицательны). Проекция данного тора на плоскость $({{x}_{1}},{{x}_{2}})$ приведена на фиг. 3.

Фиг. 3.

Еще более простая ситуация реализуется при

(3.18)
${{c}_{1}},{{c}_{2}} = {\text{const}} \in \mathbb{R},\quad 1 + {{c}_{1}}{{c}_{2}} < 0,\quad 0 < \nu \ll 1.$
Нетрудно увидеть, что здесь заведомо выполняются условия (3.6), (3.7), (3.16). Тем самым, в случае (3.18) бегущие волны (3.2), (3.3) неустойчивы, а устойчивым является однородный цикл (3.15).

4. ЗАКЛЮЧЕНИЕ

Полученные нами результаты численного анализа показывают, что в рамках базовой модели (3.1) при условиях (3.6), (3.7) возможны следующие основные ситуации: устойчивым является либо хаотический стационарный режим, либо двумерный инвариантный тор, либо однородный цикл. Следует также добавить, что перечисленные закономерности динамики, хотя и установлены для специальной системы (3.1), носят достаточно общий характер. Причины этого в том, что сама модельная система (3.1) отвечает за динамику произвольной полносвязной сети так называемых квазигармонических осцилляторов. Описание указанной сети и вывод из нее модели (3.1) приводятся ниже.

Интересующая нас сеть квазигармонических осцилляторов представляет собой систему видa

(4.1)
где $\varepsilon > 0$ – малый параметр, а вектор-функции $F(x,\varepsilon ),$ $G(x,\varepsilon )$ и матрица $D(x,\varepsilon )$ размера $n \times n$ бесконечно дифференцируемы по $(x,\varepsilon ) \in {{\mathbb{R}}^{n}} \times [0,{{\varepsilon }_{0}}],$ $n \geqslant 2,$ ${{\varepsilon }_{0}} > 0.$ Предполагаем еще, что $F(0,\varepsilon ) \equiv G(0,\varepsilon ) \equiv 0,$ т.е. система (4.1) допускает нулевое состояние равновесия.

Для формулировки дальнейших ограничений введем в рассмотрение тейлоровские разложения функций $F(x,\varepsilon ),$ $G(x,\varepsilon )$ в точке $(x,\varepsilon ) = (0,0),$ имеющие вид

(4.2)
$\begin{gathered} F(x,\varepsilon ) = ({{A}_{0}} + \varepsilon {{A}_{1}})x + {{F}_{2}}(x,x) + {{F}_{3}}(x,x,x) + O({{\varepsilon }^{2}}\left\| x \right\| + \varepsilon {{\left\| x \right\|}^{2}} + {{\left\| x \right\|}^{4}}), \\ G(x,\varepsilon ) = {{G}_{0}}x + O(\varepsilon \left\| x \right\| + {{\left\| x \right\|}^{2}}), \\ \end{gathered} $
где ${{A}_{0}},$ ${{A}_{1}},$ ${{G}_{0}}$ – квадратные матрицы размера $n \times n,$ а ${{F}_{2}},$ ${{F}_{3}}$ – квадратичная и кубическая симметричные формы со значениями в ${{\mathbb{R}}^{n}}.$ Всюду ниже считаем выполненными следующие условия.

Во-первых, матрица ${{A}_{0}}$ из (4.2) имеет простую пару чисто мнимых собственных значений $\lambda = \pm i{{\omega }_{0}},$ ${{\omega }_{0}} > 0,$ которой отвечают собственные векторы $a$ и $\bar {a},$ нормированные условиями $(a,b) = 1,$ $(\bar {a},b) = 0.$ Здесь, как обычно, черта означает комплексное сопряжение, $( \cdot , \cdot )$ – евклидово скалярное произведение в ${{\mathbb{C}}^{n}},$ а вектор $b$ таков, что $A_{0}^{*}b = - i{{\omega }_{0}}b.$ Остальные же собственные значения матрицы ${{A}_{0}}$ лежат в полуплоскости $\{ \lambda \in \mathbb{C}:\operatorname{Re} \lambda < 0\} .$

Во-вторых, справедливы неравенства

(4.3)
$\operatorname{Re} {{\alpha }_{1}} > 0,\quad \operatorname{Re} {{\alpha }_{2}} < 0,$
где
(4.4)
$\begin{gathered} {{\alpha }_{1}} = ({{A}_{1}}a,b),\quad {{\alpha }_{2}} = 2({{F}_{2}}({{{v}}_{0}},a),b) + 2({{F}_{2}}({{{v}}_{2}},\bar {a}),b) + 3({{F}_{3}}(a,a,\bar {a}),b), \\ {{{v}}_{0}} = - 2A_{0}^{{ - 1}}{{F}_{2}}(a,\bar {a}),\quad {{{v}}_{2}} = {{[2i{{\omega }_{0}}I - {{A}_{0}}]}^{{ - 1}}}{{F}_{2}}(a,a), \\ \end{gathered} $
а через $I$ обозначена единичная матрица.

В-третьих, предполагаем, что

(4.5)
$\operatorname{Re} {{\alpha }_{3}} < 0,$
где ${{\alpha }_{3}} = ({{D}_{0}}a,b),$ ${{D}_{0}} = D(0,0){{G}_{0}},$ а ${{G}_{0}}$ – матрица из второго разложения (4.2).

Отметим, что условия на спектр матрицы ${{A}_{0}}$ и неравенства (4.3) в совокупности гарантируют реализуемость в парциальной системе

(4.6)
$\dot {x} = F(x,\varepsilon )$
классической бифуркации Андронова-Хопфа. Действительно, как следует, например, из результатов монографии [10], при этих условиях и при $0 < \varepsilon \ll 1$ из нулевого состояния равновесия данной системы бифурцирует устойчивый квазигармонический цикл амплитуды порядка $\sqrt \varepsilon $ с частотой, близкой к ${{\omega }_{0}}.$ Что же касается исходной системы (4.1), то она представляет собой сеть из $m,$ $m \geqslant 2$, слабосвязанных генераторов квазигармонических колебаний, каждый из которых по отдельности описывается системой (4.6).

Поставим вопрос о существовании и устойчивости у системы (4.1) автоколебательных режимов, бифурцирующих при $\varepsilon > 0$ из нулевого положения равновесия. Асимптотику этих режимов будем искать в виде рядов по целым степеням $\sqrt \varepsilon $:

(4.7)
${{x}_{j}} = \sqrt \varepsilon {{x}_{{j,0}}}(t,\tau ) + \varepsilon {{x}_{{j,1}}}(t,\tau ) + {{\varepsilon }^{{3/2}}}{{x}_{{j,2}}}(t,\tau ) + \ldots ,\quad j = 1,2, \ldots ,m,$
где
(4.8)
${{x}_{{j,0}}} = {{z}_{j}}(\tau )aexp(i{{\omega }_{0}}t) + {{z}_{j}}(\tau )\bar {a}exp( - i{{\omega }_{0}}t),\quad \tau = \varepsilon t,$
${{z}_{j}}(\tau ),$ $j = 1,2, \ldots ,m$ – пока произвольные (подлежащие определению в последующем) комплексные амплитуды, а функции ${{x}_{{j,s}}}(t,\tau ),$ $s = 1,2$ – некоторые тригонометрические полиномы переменной ${{\omega }_{0}}t$ с коэффициентами, зависящими от медленного времени $\tau .$

Для отыскания функций ${{x}_{{j,s}}}(t,\tau )$, $j = 1,2, \ldots ,m,$ $s = 1,2$, подставим в (4.1) соотношения (4.7), (4.8) вместе с тейлоровскими разложениями (4.2) и будем последовательно приравнивать коэффициенты при ε и ${{\varepsilon }^{{3/2}}}$ в левой и правой частях получившегося выражения. В результате приходим к линейным неоднородным уравнениям вида

$\frac{{\partial {{x}_{{j,s}}}}}{{\partial t}} = {{A}_{0}}{{x}_{{j,s}}} + {{\gamma }_{{j,s}}}(t,\tau ),\quad j = 1,2, \ldots ,m,\quad s = 1,2,$
в которых переменная $\tau $ рассматривается как параметр.

При $s = 1$ неоднородности ${{\gamma }_{{j,s}}}(t,\tau )$ задаются равенствами

${{\gamma }_{{j,1}}} = {{F}_{2}}({{x}_{{j,0}}},{{x}_{{j,0}}}),\quad j = 1,2, \ldots ,m,$
а значит, являются линейными комбинациями нулевой и вторых гармоник переменной ${{\omega }_{0}}t.$ В том же виде ищем и функции ${{x}_{{j,1}}}(t,\tau ).$ В итоге приходим к выводу, что
(4.9)
${{x}_{{j,1}}} = {{v}_{0}}{\text{|}}{{z}_{j}}{\kern 1pt} {{{\text{|}}}^{2}} + z_{j}^{2}{{v}_{2}}exp(2i{{\omega }_{0}}t) + \bar {z}_{j}^{2}{{\bar {v}}_{2}}exp( - 2i{{\omega }_{0}}t),\quad j = 1,2, \ldots ,m,$
где ${{v}_{0}}$, ${{v}_{2}}$ – векторы из (4.4).

При $s = 2$ справедливы соотношения

из которых с учетом формул (4.9) вытекают представления
(4.10)
$\begin{gathered} {{\gamma }_{{j,2}}} = \gamma _{{j,2}}^{{(1)}}(\tau )exp(i{{\omega }_{0}}t) + \bar {\gamma }_{{j,2}}^{{(1)}}(\tau )exp( - i{{\omega }_{0}}t) + \gamma _{{j,2}}^{{(3)}}(\tau )exp(3i{{\omega }_{0}}t) + \\ \, + \bar {\gamma }_{{j,2}}^{{(3)}}(\tau )exp( - 3i{{\omega }_{0}}t),\quad j = 1,2, \ldots ,m. \\ \end{gathered} $
Как и выше, функции ${{x}_{{j,2}}}$ ищем в виде аналогичных (4.10) сумм с коэффициентами $w_{{j,2}}^{{(1)}}(\tau ),$ $w_{{j,2}}^{{(3)}}(\tau ).$ На этом пути для $w_{{j,2}}^{{(3)}}$ получаем линейные неоднородные уравнения
$(3i{{\omega }_{0}}I - {{A}_{0}})w_{{j,2}}^{{(3)}} = \gamma _{{j,2}}^{{(3)}},\quad j = 1,2, \ldots ,m,$
каждое из которых в силу условий на спектр матрицы ${{A}_{0}}$ однозначно разрешимо.

Новые моменты возникают в процессе нахождения коэффициентов функций ${{x}_{{j,2}}}$ при первых гармониках $exp( \pm i{{\omega }_{0}}t).$ Для указанных коэффициентов получаются линейные неоднородные уравнения

(4.11)
$(i{{\omega }_{0}}I - {{A}_{0}})w_{{j,2}}^{{(1)}} = \gamma _{{j,2}}^{{(1)}},\quad j = 1,2, \ldots ,m.$
Заметим далее, что в отличие от предыдущего случая уравнения (4.11) оказываются вырожденными, а условия их разрешимости имеют вид

(4.12)
$(\gamma _{{j,2}}^{{(1)}},b) = 0,\quad j = 1,2, \ldots ,m.$

Будем рассматривать условия (4.12) как уравнения для определения имеющихся в запасе комплексных амплитуд ${{z}_{j}}(\tau ),$ $j = 1,2, \ldots ,m.$ Проводя соответствующий подсчет, убеждаемся в том, что эти уравнения записываются в виде

(4.13)
где ${{\alpha }_{1}},$ ${{\alpha }_{2}},$ ${{\alpha }_{3}}$ – постоянные из (4.3)–(4.5). Остается добавить, что после замен
${{z}_{j}}exp( - i\operatorname{Im} {{\alpha }_{1}} \cdot \tau ) \to {{z}_{j}},\quad \operatorname{Re} {{\alpha }_{1}} \cdot \tau \to \tau ,\quad \sqrt { - \operatorname{Re} {{\alpha }_{2}}{\text{/}}\operatorname{Re} {{\alpha }_{1}}} {{z}_{j}} \to {{z}_{j}},\quad j = 1,2, \ldots ,m,\quad \tau \to t,$
система (4.13) преобразуется к виду (3.1).

Для придания изложенным построениям необходимой строгости заметим, что система (4.13) в силу своего вывода является укороченной нормальной формой исходной системы (4.1) на $2m$-мерном устойчивом инвариантном многообразии в окрестности нулевого положения равновесия. Тем самым, установленные выше характерные особенности динамики системы (3.1) сохраняются и для полносвязных сетей вида (4.1).

Список литературы

  1. Hopfield J.J. Neurons with graded response have collective computational properties like those of two-state neurons // Proc. Nat. Acad. Sci. USA. 1984. V. 81. P. 3088–3092.

  2. Хайкин С. Нейронные сети: полный курс. М.: Издательский дом “Вильямс”, 2006.

  3. Лихошвай В.А., Матушкин Ю.Г., Фадеев С.И. Задачи теории функционирования генных сетей // Сибирский ж. индустр. матем. 2003. Т. 6. № 2. С. 64–80.

  4. Демиденко Г.В., Колчанов Н.А., Лихошвай В.А., Матушкин Ю.Г., Фадеев С.И. Математическое моделирование регулярных контуров генных сетей // Ж. вычисл. матем. и матем. физ. 2004. Т. 44. № 12. С. 2276–2295.

  5. Фадеев С.И., Лихошвай В.А. О гипотетических генных сетях // Сибирский ж. индустр. матем. 2003. Т. 6. № 3. С. 134–153.

  6. Глызин С.Д., Колесов А.Ю., Розов Н.Х. Релаксационные автоколебания в сетях Хопфилда с запаздыванием // Изв. РАН. Сер. матем. 2013. Т. 77. № 2. С. 53–96.

  7. Глызин С.Д., Колесов А.Ю., Розов Н.Х. Об одном способе математического моделирования химических синапсов // Дифференц. ур-ния. 2013. Т. 49. № 10. С. 1227–1244.

  8. Глызин С.Д., Колесов А.Ю., Розов Н.Х. Периодические решения типа бегущих волн в кольцевых цепочках однонаправленно связанных уравнений // Теор. и матем. физ. 2013. Т. 175. № 1. С. 62–83.

  9. Глызин С.Д., Колесов А.Ю., Розов Н.Х. Явление буферности в кольцевых цепочках однонаправленно связанных генераторов // Изв. РАН. Сер. матем. 2014. Т. 78. № 4. С. 73–108.

  10. Колесов А.Ю., Розов Н.Х. Инвариантные торы нелинейных волновых уравнений. М.: Физматлит, 2004.

Дополнительные материалы отсутствуют.