Журнал вычислительной математики и математической физики, 2021, T. 61, № 4, стр. 539-554

Оптимизация параметров источников в многоточечных неразделенных условиях линейных динамических систем

В. М. Абдуллаев 12*, К. Р. Айда-заде 23**

1 Азерб. гос. ун-т нефти и промышленности
AZ1010 Баку, пр-т Азадлыг, 20, Азербайджан

2 Ин-т систем управления НАН Азербайджана
AZ1141 Баку, ул. Вахабзаде, 9, Азербайджан

3 Ин-т математики и механики НАН Азербайджана
AZ1141 Баку, ул. Вахабзаде, 9, Азербайджан

* E-mail: vaqif_ab@rambler.ru
** E-mail: kamil_aydazade@rambler.ru

Поступила в редакцию 07.05.2020
После доработки 01.07.2020
Принята к публикации 16.10.2020

Полный текст (PDF)

Аннотация

Рассматривается задача оптимизации правых частей линейных нелокальных многоточечных условий для линейной системы дифференциальных уравнений. Получены необходимые условия оптимальности первого порядка, позволившие использовать для численного решения рассматриваемой задачи эффективные методы первого порядка. Приводятся результаты решения тестовых задач и их анализ. Библ. 32. Фиг. 2. Табл. 2.

Ключевые слова: градиент функционала, многоточечные условия, сопряженная задача, условия оптимальности, метод сдвига условий.

ВВЕДЕНИЕ

В последнее время внимание многих исследователей обращено к нелокальным краевым задачам относительно систем дифференциальных уравнений как с обыкновенными, так и с частными производными [1]–[7], а также к исследованию соответствующих задач оптимизации и оптимального управления [8]–[11]. Это внимание к нелокальным задачам обусловлено потребностью построения математических моделей более адекватных реальности, характеризуемой, как правило, невозможностью получения, локальной информации из отдельных точек (моментов времени) о состоянии объекта или воздействовать на его отдельные точки (или в моменты времени).

Нелокально заданными могут быть как сами дифференциальные уравнения (интегро-дифференциальные, нагруженные и т.д. [12]–[14]), так и краевые условия (с неразделенными многоточечными, интегральными слагаемыми [15]–[19]). Нелокальными могут быть одновременно уравнения и краевые условия [7], [12]. Рассмотрение каждого из этих случаев имеет прикладное значение, и для различных вариантов постановок указанных классов задач имеются результаты проведенных исследований как относительно нелокальных краевых задач, так и соответствующих задач оптимального управления.

В данной работе впервые исследуется задача оптимизации значений правых частей линейных нелокальных многоточечных условий для динамического объекта, описываемого системой линейных дифференциальных уравнений с обыкновенными производными. Эта задача может возникать как в качестве обратной задачи по восстановлению параметров краевых условий, так и при оптимизации функционирования динамического объекта за счет источников, влияющих на краевые условия.

В статье рассмотрены различные возможные случаи относительно данных, участвующих в условиях. Получены необходимые условия оптимальности первого порядка относительно оптимизируемых параметров в краевых условиях. Эти условия использованы для численного решения рассматриваемой задачи с применением методов оптимизации первого порядка. Приводятся результаты численных экспериментов, полученные при решении тестовой задачи, и их анализ.

1. ПОСТАНОВКА ЗАДАЧИ

Пусть рассматриваемый динамический объект описывается следующей линейной системой дифференциальных уравнений:

(1.1)
$\dot {x}(t) = A(t)x(t) + B(t),\quad t \in [{{t}_{1}},{{t}_{f}}],$
с нелокальными условиями вида
(1.2)
$\sum\limits_{i = 1}^L {{{\alpha }_{i}}} x({{\bar {t}}_{i}}) = \vartheta .$
Здесь $x(t) \in {{R}^{n}}$ – непрерывно дифференцируемая вектор-функция, определяющая состояние объекта; $A(t)$, ${{\alpha }_{i}}$, $i = 1,\;2,\; \ldots ,\;L$ – заданные n-мерные квадратные матрицы; $A(t) \ne {\text{const}}$ непрерывна при $t \in [{{t}_{1}},{{t}_{f}}]$; $B(t) \in {{R}^{n}}$ – заданная непрерывная вектор-функция; число $L \geqslant 2$ и моменты времени ${{\bar {t}}_{i}} \in [{{t}_{1}},{{t}_{f}}]$, $i = 1,\;2,\; \ldots ,\;L$, ${{t}_{1}} = {{\bar {t}}_{1}}$, ${{t}_{f}} = {{\bar {t}}_{L}}$ заданы.

Вектор $\vartheta \in V \subset {{R}^{n}}$ является оптимизируемым параметром задачи, определяемым, как правило, воздействиями внешних источников. Требуется из заданного допустимого выпуклого компактного множества $V$ найти неизвестный вектор $\vartheta $, минимизирующий заданный функционал:

(1.3)
$J(\vartheta ) = \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {{{f}^{0}}(x(t),\vartheta ,t)} dt + \Phi (\bar {x},\vartheta ) \to \mathop {\min }\limits_{\vartheta \in V} .$
Здесь ${{f}^{0}}(x,\vartheta ,t)$, $\Phi (\bar {x},\vartheta )$ – заданные непрерывно дифференцируемые по первым двум своим аргументам функции и использованы следующие обозначения:
$\bar {t} = ({{\bar {t}}_{1}},{{\bar {t}}_{2}},\; \ldots \;,\;{{\bar {t}}_{L}}),\quad x(\bar {t}) = \bar {x} = {{({{\bar {x}}_{1}},{{\bar {x}}_{2}},\; \ldots ,\;{{\bar {x}}_{L}})}^{{\text{т}}}} = {{(x({{\bar {t}}_{1}}),x({{\bar {t}}_{2}}),\; \ldots ,\;x({{\bar {t}}_{L}}))}^{{\text{т}}}} \in {{R}^{{Ln}}},$
где т – знак транспонирования.

Будем предполагать, что ранг расширенной матрицы $\alpha = [{{\alpha }_{1}},{{\alpha }_{2}},\; \ldots ,\;{{\alpha }_{L}}]$ размерности $(n \times Ln)$ равен $n$:

(1.4)
$\operatorname{rang} \alpha = \operatorname{rang} [{{\alpha }_{1}};{{\alpha }_{2}}; \ldots ;{{\alpha }_{L}}] = n.$

Задача (1.1)–(1.3) может возникать как при оптимизации динамических объектов, а именно параметров его внешних источников, так и в качестве обратной задачи по идентификации параметров математической модели. Обе эти задачи различаются лишь конкретным заданием вида функционала (1.3).

Возможен случай, когда рассматриваемый объект является управляемым и описывается вместо системы (1.1) следующей системой дифференциальных уравнений:

(1.5)
$\dot {x}(t) = A(t)x(t) + C(t)\omega (t) + B(t),\quad t \in [{{t}_{1}},{{t}_{f}}],$
где $\omega (t) \in {{R}^{r}}$ – является управляющей вектор-функцией, $C(t)$ – заданная матрица размера $(r \times n)$. Соответственно изменится целевый функционал (1.3) за счет его зависимости от вектора управления $\omega (t)$.

Системы дифференциальных уравнений с многоточечными условиями (1.1), (1.2) исследовались многими авторами, начиная с работ [20]–[22]. Для этих задач получены условия существования решения и его единственности. Однако отметим, что имеющиеся условия существования и единственности решения систем дифференциальных уравнений с многоточечными условиями громоздки и труднопроверяемы, в особенности в случае неавтономных систем, т.е. $A(t) \ne {\text{const}}$, $t \in [{{t}_{0}},{{t}_{f}}]$, и нефиксированных значений правых частей (1.2). Сложность и трудоемкость проверки этих условий превышают трудность численного решения самой задачи. В работах [5], [13], [14] были предложены методы их численного решения, основанные на специальных схемах методов прогонки.

В работах [11], [16], [17] исследовались задачи оптимального управления с управлением в правых частях дифференциальных уравнений, т.е. системами (1.5), но с заданным вектором $\vartheta $. Были получены необходимые условия оптимальности. Отметим работы [16], [17], которыми, по-видимому, впервые были получены конструктивные условия оптимальности для двухточечной ($L = 2$) краевой задачи для системы дифференциальных уравнений с обыкновенными производными.

Задача (1.1)–(1.3), исследуемая в данной работе, отличается от ранее рассмотренных задач оптимального управления тем, что здесь оптимизируемым является вектор правых частей многоточечных условий. Такие задачи возникают, например, при исследовании и оптимизации чувствительности краевых условий [23], при управлении сложными динамическими объектами с подобъектами, описываемыми подсистемами дифференциальных уравнений со связанными краевыми условиями, на концах которых имеются оптимизируемые источники [24]. К подобным задачам приводит также использование методов прямых к сложным объектам, описываемым системами дифференциальных уравнений с частными производными с управляющими источниками в нелокальных краевых условиях [25].

Задача (1.1)–(1.3) относится к классу задач параметрического оптимального управления, в которой оптимизируемым является конечномерный вектор параметров $\vartheta \in V \in {{R}^{n}}$ [26].

В  данной  работе  получены  необходимые  условия  оптимальности  параметров $\vartheta $ в задаче (1.1)–(1.3), позволяющие их использовать для построения численной схемы ее решения, основанной на известных эффективных методах оптимизации первого порядка.

Отметим, что в случае, если имеются управления и в правых частях дифференциальных уравнений, т.е. объект описывается уравнением (1.5), то к приводимым в данной работе результатам несложно дополнительно добавить соответствующие результаты и схемы решения, изложенные в [5], [13], [14].

В работе приводятся результаты численного решения тестовых задач вида (1.1)–(1.3) и их анализ.

2. УСЛОВИЯ ОПТИМАЛЬНОСТИ В ЗАДАЧЕ (1.1)–(1.3)

Прежде всего докажем следующую теорему.

Теорема 1. Пусть выполнены все условия, наложенные на функции и параметры, участвующие в задаче (1.1)–(1.3). Если функции ${{f}^{0}}(x,\vartheta ,t)$ и $\Phi (\bar {x},\vartheta )$ выпуклы по первым двум своим аргументам, то функционал $J(\vartheta )$ является выпуклым. В случае если дополнительно одна из функций ${{f}^{0}}(x,\vartheta ,t)$ и $\Phi (\bar {x},\vartheta )$ сильно выпукла, то функционал задачи является сильно выпуклым.

Доказательство. Пусть ${{\vartheta }^{1}}$, ${{\vartheta }^{2}}$ – произвольные допустимые управления из  $V$, а ${{x}^{1}}(t)$, ${{x}^{2}}(t)$ – соответствующие решения краевых задач (1.1), (1.2), т.е.

(2.1)
${{\dot {x}}^{1}}(t) = A(t){{x}^{1}}(t) + B(t),\quad t \in [{{t}_{1}},{{t}_{f}}],$
(2.2)
$\sum\limits_{i = 1}^L {{{\alpha }_{i}}{{x}^{1}}({{{\bar {t}}}_{i}})} = {{\vartheta }^{1}},$
(2.3)
${{\dot {x}}^{2}}(t) = A(t){{x}^{2}}(t) + B(t),\quad t \in [{{t}_{1}},{{t}_{f}}],$
(2.4)
$\sum\limits_{i = 1}^L {{{\alpha }_{i}}{{x}^{2}}({{{\bar {t}}}_{i}})} = {{\vartheta }^{2}}.$

В силу выпуклости допустимого множества $V$ для произвольного $\lambda \in [0;\;1]$ имеет место $\vartheta = \lambda {{\vartheta }^{1}} + (1 - \lambda ){{\vartheta }^{2}} \in V$. Введем обозначение ${{x}_{\lambda }}(t) = \lambda {{x}^{1}}(t) + (1 - \lambda ){{x}^{2}}(t)$.

Умножим обе части (2.1) на $\lambda $, а (2.3) – на $(1 - \lambda )$, почленно сложим

$\lambda {{\dot {x}}^{1}} + (1 - \lambda ){{\dot {x}}^{2}} = A\lambda {{x}^{1}} + \lambda B + A(1 - \lambda ){{x}^{2}} + (1 - \lambda )B.$
Отсюда следует, что ${{x}_{\lambda }}(t)$ удовлетворяет системе дифференциальных уравнений (1.1).

Умножая обе части (2.2) на $\lambda $, а (2.4) – на $(1 - \lambda )$, складывая их, после группировки получаем

$\sum\limits_{i = 1}^L {\lambda {{\alpha }_{i}}{{x}^{1}}({{{\bar {t}}}_{i}})} + \sum\limits_{i = 1}^L {(1 - \lambda ){{\alpha }_{i}}{{x}^{2}}({{{\bar {t}}}_{i}})} = \lambda {{\vartheta }^{1}} + (1 - \lambda ){{\vartheta }^{2}},$
$\sum\limits_{i = 1}^L {{{\alpha }_{i}}\left[ {\lambda {{x}^{1}}({{{\bar {t}}}_{i}}) + \sum\limits_{i = 1}^L {(1 - \lambda ){{x}^{2}}({{{\bar {t}}}_{i}})} } \right]} = \lambda {{\vartheta }^{1}} + (1 - \lambda ){{\vartheta }^{2}}.$
Отсюда следует, что пара $({{x}_{\lambda }}(t),\vartheta )$ удовлетворяет условиям (1.2).

В силу выпуклости функций ${{f}^{0}}(x,\vartheta ,t)$ и $\Phi (\bar {x},\vartheta )$ по аргументам $x$, $\vartheta $, имеем

(2.5)
$\begin{gathered} J(\vartheta ) = J(\lambda {{\vartheta }^{1}} + (1 - \lambda ){{\vartheta }^{2}}) = \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {{{f}^{0}}(\lambda {{x}^{1}} + (1 - \lambda ){{x}^{2}},\lambda {{\vartheta }^{1}} + (1 - \lambda ){{\vartheta }^{2}})dt} + \\ + \;\Phi (\lambda {{{\bar {x}}}^{1}} + (1 - \lambda ){{{\bar {x}}}^{2}},\lambda {{\vartheta }^{1}} + (1 - \lambda ){{\vartheta }^{2}}) \leqslant \lambda \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {{{f}^{0}}({{x}^{1}},{{\vartheta }^{1}})dt + (1 - \lambda )\int\limits_{{{t}_{1}}}^{{{t}_{f}}} {{{f}^{0}}({{x}^{2}},{{\vartheta }^{2}})dt + } } \\ + \;\lambda \Phi ({{{\bar {x}}}^{1}},{{\vartheta }^{1}}) + (1 - \lambda )\Phi ({{{\bar {x}}}^{2}},{{\vartheta }^{2}}) = \lambda J({{\vartheta }^{1}}) + (1 - \lambda )J({{\vartheta }^{2}}). \\ \end{gathered} $

Ясно, что в случае, если одна из функций $\Phi (\bar {x},\vartheta )$, ${{f}^{0}}(x,\vartheta ,t)$ будет строго выпуклой, то знак неравенства в (2.5) будет строгим. Следовательно, и функционал задачи (1.1)–(1.3) будет строго выпуклым. Отсюда следует справедливость утверждения теоремы.

Покажем дифференцируемость функционала (1.3) и определим формулы для компонентов его градиента по оптимизируемым параметрам $\vartheta \in {{R}^{n}}$. Для этого используем метод приращения оптимизируемого вектора и определим линейную часть приращения функционала [27].

Пусть $x(t) \in {{R}^{n}}$ является решением краевой задачи (1.1), (1.2) при некотором допустимом векторе параметров $\vartheta \in V$, а ${{x}^{1}}(t) = x(t) + \Delta x(t)$ – решение задачи (1.1), (1.2), соответствующее допустимому приращенному вектору ${{\vartheta }^{1}} = \vartheta + \Delta \vartheta \in V$:

(2.6)
${{\dot {x}}^{1}}(t) = A(t){{x}^{1}}(t) + B(t),$
(2.7)
$\sum\limits_{i = 1}^L {{{\alpha }_{i}}{{x}^{1}}({{{\bar {t}}}_{i}})} = {{\vartheta }^{1}}.$

Из (1.1), (1.2) и (2.6), (2.7) следует, что имеет место

(2.8)
$\Delta \dot {x}(t) = A(t)\Delta x(t),\quad t \in [{{t}_{1}},{{t}_{f}}],$
(2.9)
$\sum\limits_{i = 1}^L {{{\alpha }_{i}}\Delta x({{{\bar {t}}}_{i}})} = \Delta \vartheta .$

Тогда для приращения функционала (1.3) имеем

$\Delta J(\vartheta ) = J({{\vartheta }^{1}}) - J(\vartheta ) = \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {[{{f}^{0}}({{x}^{1}},{{\vartheta }^{1}},t) - {{f}^{0}}(x,\vartheta ,t)]{\kern 1pt} dt} + \Phi ({{\bar {x}}^{1}},{{\vartheta }^{1}}) - \Phi (\bar {x},\vartheta ) = $
(2.10)
$ = \;\int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\left[ {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial x}}\Delta x(t) + \frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial \vartheta }}\Delta \vartheta } \right]} dt + \sum\limits_{i = 1}^L {\frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}}} \Delta x({{\bar {t}}_{i}}) + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial \vartheta }}\Delta \vartheta + R,$
$R = R(\Delta \vartheta ,\Delta x(t),\Delta x(\bar {t})) = o\left( {{{{\left\| {\Delta \vartheta } \right\|}}_{{{{R}^{n}}[{{t}_{1}},{{t}_{f}}]}}}} \right) + o\left( {{{{\left\| {\Delta x(t)} \right\|}}_{{{{С}^{{1,n}}}[{{t}_{1}},{{t}_{f}}]}}}} \right) + o\left( {{{{\left\| {\Delta x(\bar {t})} \right\|}}_{{{{R}^{{Ln}}}}}}} \right).$

Последнее слагаемое в (2.10) является остаточным членом в соответствующих пространствах функций $x(t) \in {{С}^{{1,n}}}[{{t}_{1}},{{t}_{f}}]$ и конечномерных векторов $x(\bar {t}) \in {{R}^{{nL}}}$. Для решения краевых задач, в силу их устойчивости, имеют место оценки [22]:

${{\left\| {\Delta x(t)} \right\|}_{{{{С}^{{1,n}}}[{{t}_{1}},{{t}_{f}}]}}} \leqslant {{\alpha }_{1}}{{\left\| {\Delta \vartheta } \right\|}_{{{{R}^{n}}}}}{\kern 1pt} ,\quad {{\left\| {\Delta x(\bar {t})} \right\|}_{{{{R}^{{Ln}}}}}} \leqslant {{\alpha }_{2}}{{\left\| {\Delta \vartheta } \right\|}_{{{{R}^{n}}}}},$
где постоянные ${{\alpha }_{1}},{{\alpha }_{2}} > 0$ не зависят от решения краевой задачи. В (2.10) и далее производные ${{\partial {{f}^{0}}} \mathord{\left/ {\vphantom {{\partial {{f}^{0}}} {\partial x}}} \right. \kern-0em} {\partial x}}$, ${{\partial {{f}^{0}}} \mathord{\left/ {\vphantom {{\partial {{f}^{0}}} {\partial \vartheta }}} \right. \kern-0em} {\partial \vartheta }}$, ${{\partial \Phi } \mathord{\left/ {\vphantom {{\partial \Phi } {\partial {{{\bar {x}}}_{i}}}}} \right. \kern-0em} {\partial {{{\bar {x}}}_{i}}}}$ понимаются как строки соответствующих размерностей.

Перенесем правую часть (2.8) влево, умножим слева скалярно обе части полученного равенства на пока произвольную непрерывно дифференцируемую на интервалах $({{t}_{i}},{{t}_{{i + 1}}})$, $i = 1,\;2,\; \ldots ,\;L - 1$, n-мерную вектор-функцию $\psi (t)$. Интегрируя по частям полученное равенство, используя обозначения

$\psi (t_{i}^{ + }) = \mathop {\lim }\limits_{\varepsilon \to + 0} \psi ({{t}_{i}} + \varepsilon ),\quad \psi (t_{i}^{ - }) = \mathop {\lim }\limits_{\varepsilon \to + 0} \psi ({{t}_{i}} - \varepsilon ),$
получаем

$\begin{gathered} 0 = \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {{{\psi }^{{\text{т}}}}(t)[\Delta \dot {x}(t) - A(t)\Delta x(t)]{\kern 1pt} dt} = \sum\limits_{i = 1}^{L - 1} {\int\limits_{{{{\bar {t}}}_{i}}}^{{{{\bar {t}}}_{{i + 1}}}} {[{{\psi }^{{\text{т}}}}(t)\Delta \dot {x}(t) - {{\psi }^{{\text{т}}}}(t)A(t)\Delta x(t)]{\kern 1pt} dt} } = \\ = \;{{\psi }^{{\text{т}}}}({{t}_{f}})\Delta x({{t}_{f}}) - {{\psi }^{{\text{т}}}}({{t}_{1}})\Delta x({{t}_{1}}) + \sum\limits_{i = 2}^{L - 1} {{{{[\psi (\bar {t}_{i}^{ - }) - \psi (\bar {t}_{i}^{ + })]}}^{{\text{т}}}}\Delta x({{{\bar {t}}}_{i}})} + \sum\limits_{i = 1}^{L - 1} {\int\limits_{{{{\bar {t}}}_{i}}}^{{{{\bar {t}}}_{{i + 1}}}} {[ - {{{\dot {\psi }}}^{{\text{т}}}}(t) - {{\psi }^{{\text{т}}}}(t)A(t)]\Delta x(t)} dt} . \\ \end{gathered} $

Прибавив к (2.10) полученное выражение, равное нулю, после несложных преобразований будем иметь

(2.11)
$\begin{gathered} \Delta J(\vartheta ) = \sum\limits_{i = 1}^{L - 1} {\int\limits_{{{{\bar {t}}}_{i}}}^{{{{\bar {t}}}_{{i + 1}}}} {\left[ { - {{{\dot {\psi }}}^{{\text{т}}}}(t) - {{\psi }^{{\text{т}}}}(t)A(t) + \frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial x}}} \right]\Delta x(t)} dt} + \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial \vartheta }}dt\Delta \vartheta } + \sum\limits_{i = 1}^L {\frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}}} \Delta x({{{\bar {t}}}_{i}}) + \\ + \;\frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial \vartheta }}\Delta \vartheta + {{\psi }^{{\text{т}}}}({{t}_{f}})\Delta x({{t}_{f}}) - {{\psi }^{{\text{т}}}}({{t}_{1}})\Delta x({{t}_{1}}) + \sum\limits_{i = 2}^{L - 1} {{{{[\psi (\bar {t}_{i}^{ - }) - \psi (\bar {t}_{i}^{ + })]}}^{{\text{т}}}}\Delta x({{{\bar {t}}}_{i}})} + R. \\ \end{gathered} $

В (2.11) используем условия (2.9) для получения зависимости каких-либо линейно независимых n компонент $nL$-мерного вектора

$\Delta x(\bar {t}) = \left( {\Delta {{x}_{1}}({{{\bar {t}}}_{1}}),\,\Delta {{x}_{2}}({{{\bar {t}}}_{1}}),\; \ldots ,\;\Delta {{x}_{n}}({{{\bar {t}}}_{1}}),\; \ldots ,\;\Delta {{x}_{i}}({{{\bar {t}}}_{j}}),\; \ldots ,\;\Delta {{x}_{n}}({{{\bar {t}}}_{L}})} \right)$
через остальные $(n - 1)L$ компонент.

В связи с этим будут рассмотрены следующие три возможных варианта относительно расширенной матрицы $\alpha = \left[ {{{\alpha }_{1}};{{\alpha }_{2}};\; \ldots ;\;{{\alpha }_{n}}} \right]$ размерности $n \times Ln$, имеющей согласно (1.4) ранг, равный n.

1. Матрица ${{\alpha }_{1}}$ (или матрица ${{\alpha }_{L}}$) имеет ранг, равный n, а следовательно, у нее имеется обратная матрица $\alpha _{1}^{{ - 1}}$ (или $\alpha _{L}^{{ - 1}}$).

2. Одна из матриц ${{\alpha }_{s}}$, $s = 2,\;3,\; \ldots ,\;L - 1$, имеет ранг, равный n, т.е. имеется $\alpha _{s}^{{ - 1}}$.

3. Все матрицы ${{\alpha }_{i}}$, $i = 1,\;2,\; \ldots ,\;L$, имеют ранги, меньше n, но в силу условия (1.4) из расширенной матрицы $\alpha $ можно выбрать n столбцов, образующих матрицу $\hat {\alpha }$ ранга n.

Каждый из этих случаев требует отдельного рассмотрения.

Случай 1.а. Пусть существует $\alpha _{1}^{{ - 1}}$. Тогда из (2.9) будем иметь

(2.12)
$\Delta x({{t}_{1}}) = \alpha _{1}^{{ - 1}}\Delta \vartheta - \sum\limits_{i = 2}^L {\alpha _{1}^{{ - 1}}{{\alpha }_{i}}\Delta x({{{\bar {t}}}_{i}})} .$

Учтя (2.12) в (2.11), после группировки получим

$\Delta J(\vartheta ) = \sum\limits_{i = 1}^{L - 1} {\int\limits_{{{{\bar {t}}}_{i}}}^{{{{\bar {t}}}_{{i + 1}}}} {\left[ { - {{{\dot {\psi }}}^{{\text{т}}}}(t) - {{\psi }^{{\text{т}}}}(t)A(t) + \frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial x}}} \right]\Delta x(t)} dt} + $
(2.13)
$\begin{gathered} + \;\left[ {{{\psi }^{{\text{т}}}}({{t}_{1}})\alpha _{1}^{{ - 1}}{{\alpha }_{L}} + {{\psi }^{{\text{т}}}}({{t}_{f}}) + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{L}}}} - \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{1}}}}\alpha _{1}^{{ - 1}}{{\alpha }_{L}}} \right]\Delta x({{t}_{f}}) + \\ + \;\sum\limits_{i = 2}^{L - 1} {\left[ {\psi (\bar {t}_{i}^{ - }) - \psi (\bar {t}_{i}^{ + }){{)}^{{\text{т}}}} + {{\psi }^{{\text{т}}}}({{t}_{1}})\alpha _{1}^{{ - 1}}{{\alpha }_{i}} + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}} - \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{1}}}}\alpha _{1}^{{ - 1}}{{\alpha }_{i}}} \right]\Delta x({{{\bar {t}}}_{i}})} + \\ \end{gathered} $
$ + \;\left[ {\int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial \vartheta }}dt} - {{\psi }^{{\text{т}}}}({{t}_{1}})\alpha _{1}^{{ - 1}} + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{1}}}}\alpha _{1}^{{ - 1}} + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial \vartheta }}} \right]\Delta \vartheta + R.$

Пользуясь произвольностью вектор-функции $\psi (t)$, потребуем, чтобы она являлась решением следующей сопряженной задачи с нелокальными краевыми условиями:

(2.14)
$\dot {\psi }(t) = - {{A}^{{\text{т}}}}(t)\psi (t) + {{\left( {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial x}}} \right)}^{{\text{т}}}},\quad t \in ({{\bar {t}}_{\mu }},{{\bar {t}}_{{\mu + 1}}}),\quad \mu = 1,\;2,\; \ldots ,\;L - 1,$
(2.15)
$\alpha _{L}^{{\text{т}}}{{(\alpha _{1}^{{ - 1}})}^{{\text{т}}}}\psi ({{t}_{1}}) + \psi ({{t}_{f}}) = - \frac{{\partial {{\Phi }^{{\text{т}}}}(x,\vartheta )}}{{\partial {{{\bar {x}}}_{L}}}} + \alpha _{L}^{{\text{т}}}{{(\alpha _{1}^{{ - 1}})}^{{\text{т}}}}\frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{1}}}},$
(2.16)
$\psi (\bar {t}_{i}^{ + }) = \psi (\bar {t}_{i}^{ - }) + \alpha _{i}^{{\text{т}}}{{(\alpha _{1}^{{ - 1}})}^{{\text{т}}}}\psi ({{t}_{1}}) + \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}} - \alpha _{i}^{{\text{т}}}{{(\alpha _{1}^{{ - 1}})}^{{\text{т}}}}\frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{x}_{1}}}},\quad i = 2,\;3,\; \ldots ,\;L - 1.$

Тогда искомый градиент функционала определяется из (2.12) как линейная часть приращения функционала при $\Delta \vartheta $:

(2.17)
$\operatorname{grad} J(\vartheta ) = - {{(\alpha _{1}^{{ - 1}})}^{{\text{т}}}}\left[ {\psi ({{t}_{1}}) - \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{1}}}}} \right] + \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial \vartheta }} + \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial \vartheta }}} dt.$

б. Если обратима матрица ${{\alpha }_{L}}$, то вместо (2.12) будем иметь

$\Delta x({{t}_{f}}) = \alpha _{L}^{{ - 1}}\Delta \vartheta - \sum\limits_{i = 1}^{L - 1} {\alpha _{L}^{{ - 1}}{{\alpha }_{i}}\Delta x({{{\bar {t}}}_{i}})} .$

Повторив выкладки, аналогичные проведенным при получении формул (2.14)–(2.17), вместо формул (2.15), (2.16) будем иметь

(2.18)
$\psi ({{t}_{1}}) + \alpha _{1}^{{\text{т}}}{{(\alpha _{L}^{{ - 1}})}^{{\text{т}}}}\psi ({{t}_{f}}) = \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{1}}}} - \alpha _{1}^{{\text{т}}}{{(\alpha _{L}^{{ - 1}})}^{{\text{т}}}}\frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{L}}}},$
(2.19)
$\psi (\bar {t}_{i}^{ + }) = \psi (\bar {t}_{i}^{ - }) - \alpha _{i}^{{\text{т}}}{{(\alpha _{L}^{{ - 1}})}^{{\text{т}}}}\psi ({{t}_{f}}) + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}} - \alpha _{i}^{{\text{т}}}{{(\alpha _{L}^{{ - 1}})}^{{\text{т}}}}\frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{L}}}}.$

Градиент функционала будет определяться формулой

(2.20)
$\operatorname{grad} J(\vartheta ) = - {{(\alpha _{L}^{{ - 1}})}^{{\text{т}}}}\left[ {\psi ({{t}_{f}}) - \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{L}}}}} \right] + \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial \vartheta }} + \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial \vartheta }}} dt.$

Случай 2. Пусть какая-либо матрица ${{\alpha }_{s}}$, $s = 2,\;3,\; \ldots ,\;L - 1$, имеет обратную: $\alpha _{s}^{{ - 1}}$. Тогда из условия (2.9) будем иметь

Учитывая это выражение в формуле (2.11), после несложных преобразований и группировки получим

$\Delta J(\vartheta ) = \sum\limits_{i = 1}^{L - 1} {\int\limits_{{{{\bar {t}}}_{i}}}^{{{{\bar {t}}}_{{i + 1}}}} {\left[ { - {{{\dot {\psi }}}^{{\text{т}}}}(t) - {{\psi }^{{\text{т}}}}(t)A(t) + \frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial x}}} \right]\Delta x(t)} dt} + $
$ + \;\left[ { - {{\psi }^{{\text{т}}}}({{t}_{1}}) + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{1}}}} - \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{s}}}}\alpha _{s}^{1}{{\alpha }_{1}} - {{{(\psi (\bar {t}_{s}^{ - }) - \psi (t_{s}^{ + }))}}^{{\text{т}}}}\alpha _{s}^{{ - 1}}{{\alpha }_{1}}} \right]\Delta x({{t}_{1}}) + $
$ + \;\left[ {{{\psi }^{{\text{т}}}}({{t}_{f}}) + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{L}}}} - \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{s}}}}\alpha _{s}^{{ - 1}}{{\alpha }_{2}} - {{{(\psi ({{{\bar {t}}}_{s}}) - \psi (\bar {t}_{s}^{ + }))}}^{{\text{т}}}}\alpha _{s}^{{ - 1}}{{\alpha }_{L}}} \right]\Delta x({{t}_{f}}) + $
$ + \left\{ {\int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial \vartheta }}dt + \left[ {\frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{s}}}} + {{{(\psi (\bar {t}_{s}^{ - }) - \psi (\bar {t}_{s}^{ + }))}}^{{\text{т}}}}} \right]\alpha _{s}^{{ - 1}} + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial \vartheta }}} } \right\}\Delta \vartheta + R.$

Учитывая произвольность вектор-функции $\psi (t)$, потребуем, чтобы она являлась решением сопряженной системы (2.14) и удовлетворяла условиям

(2.21)
$\begin{gathered} \psi ({{t}_{1}}) = \alpha _{1}^{{\text{т}}}{{(\alpha _{s}^{{ - 1}})}^{{\text{т}}}}(\psi (\bar {t}_{s}^{ + }) - \psi (\bar {t}_{s}^{ - })) + \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{1}}}} - \alpha _{1}^{{\text{т}}}{{(\alpha _{s}^{{ - 1}})}^{{\text{т}}}}\frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{s}}}}, \\ \psi ({{t}_{f}}) = - \alpha _{L}^{{\text{т}}}{{(\alpha _{s}^{{ - 1}})}^{{\text{т}}}}(\psi (\bar {t}_{s}^{ + }) - \psi (\bar {t}_{s}^{ - })) - \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{L}}}} + \alpha _{L}^{{\text{т}}}{{(\alpha _{s}^{{ - 1}})}^{{\text{т}}}}\frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{s}}}}, \\ \end{gathered} $
(2.22)
$\begin{gathered} \psi (\bar {t}_{i}^{ + }) = \psi (\bar {t}_{i}^{ - }) + \alpha _{i}^{{\text{т}}}{{(\alpha _{s}^{{ - 1}})}^{{\text{т}}}}(\psi (\bar {t}_{s}^{ + }) - \psi (\bar {t}_{s}^{ - })) + \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}} - \\ - \;\alpha _{i}^{{\text{т}}}{{(\alpha _{s}^{{ - 1}})}^{{\text{т}}}}\frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{s}}}},\quad i = 2,\;3, \ldots ,\;L - 1,\quad i \ne s. \\ \end{gathered} $

Тогда формула искомого градиента функционала будет иметь вид

(2.23)
$\operatorname{grad} J(\vartheta ) = - {{(\alpha _{s}^{{ - 1}})}^{{\text{т}}}}\left[ {(\psi (\bar {t}_{s}^{ + }) - \psi (\bar {t}_{s}^{ - })) - \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{s}}}}} \right] + \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial \vartheta }} + \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial \vartheta }}dt} .$

Случай 3. Приводимые ниже выкладки по сравнению с предыдущими случаями более сложны технически, так как вместо матричных выражений будут получены формулы покомпонентно. Пусть $n$-мерная квадратная матрица $\hat {\alpha }$ ранга $n$ образована $n$ столбцами расширенной матрицы $\alpha $:

$\hat {\alpha } = \left( {\begin{array}{*{20}{c}} {{{{\hat {\alpha }}}^{{11}}}}& \cdots &{{{{\hat {\alpha }}}^{{1i}}}}& \cdots &{{{{\hat {\alpha }}}^{{1n}}}} \\ {{{{\hat {\alpha }}}^{{21}}}}& \cdots &{{{{\hat {\alpha }}}^{{2i}}}}& \cdots &{{{{\hat {\alpha }}}^{{2n}}}} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ {{{{\hat {\alpha }}}^{{n1}}}}& \cdots &{{{{\hat {\alpha }}}^{{ni}}}}& \cdots &{{{{\hat {\alpha }}}^{{nn}}}} \end{array}} \right) = \left( {\begin{array}{*{20}{c}} {\hat {\alpha }_{{{{s}_{1}}}}^{{1,{{k}_{1}}}}}& \cdots &{\hat {\alpha }_{{{{s}_{i}}}}^{{1,{{k}_{i}}}}}& \cdots &{\hat {\alpha }_{{{{s}_{{ni}}}}}^{{1,{{k}_{n}}}}} \\ {\hat {\alpha }_{{{{s}_{1}}}}^{{2,{{k}_{1}}}}}& \cdots &{\hat {\alpha }_{{{{s}_{i}}}}^{{2,{{k}_{i}}}}}& \cdots &{\hat {\alpha }_{{{{s}_{{ni}}}}}^{{2,{{k}_{n}}}}} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ {\hat {\alpha }_{{{{s}_{1}}}}^{{n,{{k}_{1}}}}}& \cdots &{\hat {\alpha }_{{{{s}_{i}}}}^{{n,{{k}_{i}}}}}& \cdots &{\hat {\alpha }_{{{{s}_{{ni}}}}}^{{n,{{k}_{n}}}}} \end{array}} \right).$
Здесь ${{k}_{i}}$ является номером столбца матрицы ${{\alpha }_{{{{s}_{i}}}}}$, $1 \leqslant i \leqslant n$, $1 \leqslant {{s}_{i}} \leqslant L$, $i = 1,\;2,\; \ldots ,\;n$, включенного в матрицу $\hat {\alpha }$, т.е. $i$-й столбец ${{\hat {\alpha }}^{i}}$ матрицы $\hat {\alpha }$ является ${{k}_{i}}$-м столбцом матрицы ${{\alpha }_{{{{s}_{i}}}}}$:

${{\hat {\alpha }}^{i}} = {{(\alpha _{{{{s}_{i}}}}^{{1,{{k}_{i}}}},\alpha _{{{{s}_{i}}}}^{{2,{{k}_{i}}}},\; \ldots ,\;\alpha _{{{{s}_{i}}}}^{{n,{{k}_{i}}}})}^{{\text{т}}}}.$

Обозначим через $\Delta \hat {x} = {{(\Delta {{\hat {x}}_{1}},\Delta {{\hat {x}}_{2}},\; \ldots ,\;\Delta {{\hat {x}}_{n}})}^{{\text{т}}}} = {{(\Delta {{\hat {x}}_{{{{k}_{1}}}}}({{\bar {t}}_{{{{s}_{1}}}}}),\Delta {{\hat {x}}_{{{{k}_{2}}}}}({{\bar {t}}_{{{{s}_{2}}}}}),\; \ldots ,\;\Delta {{\hat {x}}_{{{{k}_{n}}}}}({{\bar {t}}_{{{{s}_{n}}}}}))}^{{\text{т}}}}$ $n$-мерный вектор, состоящий из компонент вектора $x(\bar {t})$, образованный из соответствующих матрице $\hat {\alpha }$ значений координат $n$-мерного вектора $x(t)$ в моменты времени ${{\bar {t}}_{{{{s}_{n}}}}}$ $1 \leqslant {{s}_{n}} \leqslant L$.

Пусть $\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{\alpha } $ и $\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{x} $ есть остаточные матрица размера $n \times (L - 1)n$ и $(L - 1)n$-мерный вектор, полученные удалением из матрицы $\alpha $ и вектора $\bar {x}(\bar {t})$, соответственно, $n$ столбцов матрицы $\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{\alpha } $ и $n$ компонент вектора $\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{x} (\bar {t})$:

$\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{\alpha } = \left( {\begin{array}{*{20}{c}} {\alpha _{{{{g}_{1}}}}^{{1,{{q}_{1}}}}}& \cdots &{\alpha _{{{{g}_{i}}}}^{{1,{{q}_{i}}}}}& \cdots &{\alpha _{{{{g}_{{_{{(L - 1)n}}}}}}}^{{1,{{q}_{{(L - 1)n}}}}}} \\ {\alpha _{{{{g}_{1}}}}^{{2,{{q}_{1}}}}}& \cdots &{\alpha _{{{{g}_{i}}}}^{{2,{{q}_{i}}}}}& \cdots &{\alpha _{{{{g}_{{_{{(L - 1)n}}}}}}}^{{2,{{q}_{{_{{(L - 1)n}}}}}}}} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ {\alpha _{{{{g}_{1}}}}^{{n,{{q}_{1}}}}}& \cdots &{\alpha _{{{{g}_{i}}}}^{{n,{{q}_{i}}}}}& \cdots &{\alpha _{{{{g}_{{_{{(L - 1)n}}}}}}}^{{n,{{q}_{{_{{(L - 1)n}}}}}}}} \end{array}} \right),$
$\Delta \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{x} = {{(\Delta {{x}_{{{{g}_{1}}}}}({{\bar {t}}_{{{{q}_{1}}}}}),\;\Delta {{x}_{{{{g}_{2}}}}}({{\bar {t}}_{{{{q}_{2}}}}}),\; \ldots ,\;\Delta {{x}_{{{{g}_{n}}}}}({{\bar {t}}_{{{{q}_{{(L - 1)n}}}}}}))}^{{\text{т}}}},$
где $({{g}_{i}},{{q}_{i}}) \ne ({{s}_{j}},{{k}_{j}})$ и $1 \leqslant {{g}_{i}} \leqslant n$ и $1 \leqslant {{q}_{j}} \leqslant L$ при $i,j = 1,2,\; \ldots ,\;n$.

Тогда соотношение (2.9) можно записать в виде

$\hat {\alpha }\Delta \hat {x} + \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{\alpha } \Delta \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{x} = \Delta \vartheta .$
Отсюда имеем

(2.24)
$\Delta \hat {x} = {{\hat {\alpha }}^{{ - 1}}}\Delta \vartheta - {{\hat {\alpha }}^{{ - 1}}}\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{\alpha } \Delta \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{x} .$

Для простоты записи получаемых формул $n$-мерную квадратную матрицу ${{\hat {\alpha }}^{{ - 1}}}$ обозначим через $C$ с элементами ${{с}_{{ij}}}$, а матрицу $( - {{\hat {\alpha }}^{{ - 1}}}\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{\alpha } )$ размера $n \times (L - 1)n$ – через $B$ с элементами ${{b}_{{ij}}}$, а также

${{\Phi }^{i}} = (\Phi _{1}^{i},\Phi _{2}^{i}, \ldots ,\Phi _{n}^{i}) = \left( {\frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{{{{i}_{1}}}}}}},\frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{{{{i}_{2}}}}}}}, \ldots ,\frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{{{{i}_{n}}}}}}}} \right),\quad i = 1,\;2,\; \ldots ,\;L.$
Тогда (2.24) примет вид
(2.25)
$\Delta \hat {x} = B\Delta \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{x} + C\Delta \vartheta $
или в покомпонентной форме:
(2.26)
$\Delta {{\hat {x}}_{i}} = \Delta {{\hat {x}}_{{{{k}_{i}}}}}({{\bar {t}}_{{{{s}_{i}}}}}) = \sum\limits_{\nu = 1}^{Ln - n} {{{b}_{{i\nu }}}} \Delta {{\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{x} }_{{{{g}_{\nu }}}}}({{\bar {t}}_{{{{q}_{\nu }}}}}) + \sum\limits_{k = 1}^n {{{с}_{{ik}}}} \Delta {{\vartheta }_{k}},\quad i = 1,\;2,\; \ldots ,\;n,\quad 1 \leqslant {{g}_{\nu }} \leqslant n.$
Третье, четвертое и пятое слагаемые в (2.11) запишем в виде

$\sum\limits_{i = 1}^L {\frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{x}_{i}}}}} \Delta {{x}_{i}}(\bar {t}) = \sum\limits_{i = 1}^L {\sum\limits_{j = 1}^n {\Phi _{j}^{i}} } \Delta {{x}_{j}}({{\bar {t}}_{i}}),$
${{\psi }^{{\text{т}}}}({{t}_{f}})\Delta x({{t}_{f}}) = \sum\limits_{j = 1}^n {{{\psi }_{j}}({{t}_{f}})\Delta {{x}_{j}}({{t}_{f}})} ,\quad {{\psi }^{{\text{т}}}}({{t}_{1}})\Delta x({{t}_{1}}) = \sum\limits_{j = 1}^n {{{\psi }_{j}}({{t}_{1}})\Delta {{x}_{j}}({{t}_{1}})} .$

Будем считать, что

$\psi (\bar {t}_{1}^{ - }) = 0,\quad \psi (\bar {t}_{1}^{ + }) = \psi ({{t}_{1}}),\quad \psi (\bar {t}_{f}^{ + }) = 0,\quad \psi (\bar {t}_{f}^{ - }) = \psi ({{t}_{f}}),$
и введем обозначение

$\Delta \psi ({{\bar {t}}_{i}}) = \psi (\bar {t}_{i}^{ + }) - \psi (\bar {t}_{i}^{ - }),\quad i = 1,\;2,\; \ldots ,\;L.$

Объединяя в (2.11) последние четыре слагаемых и учитывая (2.26), получаем

$\begin{gathered} \sum\limits_{i = 1}^L {\sum\limits_{j = 1}^n {[\Phi _{j}^{i} + \Delta {{\psi }_{j}}({{{\bar {t}}}_{i}})]\Delta {{x}_{j}}({{{\bar {t}}}_{i}})} } = \sum\limits_{i = 1}^n {[\Phi _{{{{k}_{i}}}}^{{{{s}_{i}}}} + \Delta {{\psi }_{{{{k}_{i}}}}}({{{\bar {t}}}_{{{{s}_{i}}}}})]\Delta {{x}_{{{{k}_{i}}}}}({{{\bar {t}}}_{{{{s}_{i}}}}})} + \sum\limits_{\nu = 1}^{(L - 1)n} {[\Phi _{{{{g}_{\nu }}}}^{{{{q}_{\nu }}}} + \Delta {{\psi }_{{{{g}_{\nu }}}}}({{{\bar {t}}}_{{{{q}_{\nu }}}}})]\Delta {{x}_{{{{g}_{\nu }}}}}({{{\bar {t}}}_{{{{q}_{\nu }}}}})} = \\ = \;\sum\limits_{i = 1}^n {[\Phi _{{{{k}_{i}}}}^{{{{s}_{i}}}} + \Delta {{\psi }_{{{{k}_{i}}}}}({{{\bar {t}}}_{{{{s}_{i}}}}})]} \left[ {\sum\limits_{s = 1}^{(L - 1)n} {{{b}_{{is}}}} \Delta {{{\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{x} }}_{{{{g}_{s}}}}}({{{\bar {t}}}_{{{{q}_{s}}}}}) + \sum\limits_{k = 1}^n {{{с}_{{ik}}}} \Delta {{\vartheta }_{k}}} \right] + \sum\limits_{\nu = 1}^{(L - 1)n} {[\Phi _{{{{g}_{\nu }}}}^{{{{q}_{\nu }}}} + \Delta {{\psi }_{{{{g}_{\nu }}}}}({{{\bar {t}}}_{{{{q}_{\nu }}}}})]\Delta {{x}_{{{{g}_{\nu }}}}}({{{\bar {t}}}_{{{{q}_{\nu }}}}})} . \\ \end{gathered} $

Из (2.11), с учетом полученного соотношения, имеем

$\Delta J(\vartheta ) = \sum\limits_{i = 1}^{L - 1} {\int\limits_{{{{\bar {t}}}_{i}}}^{{{{\bar {t}}}_{{i + 1}}}} {\left[ { - {{{\dot {\psi }}}^{{\text{т}}}}(t) - {{\psi }^{{\text{т}}}}(t)A(t) + \frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial x}}} \right]\Delta x(t)} dt + } $
$ + \sum\limits_{k = 1}^n {\left\{ {\sum\limits_{i = 1}^n {[\Phi _{{{{k}_{i}}}}^{{{{s}_{i}}}} + \Delta {{\psi }_{{{{k}_{i}}}}}({{{\bar {t}}}_{{{{s}_{i}}}}})]{\kern 1pt} {{c}_{{ik}}}} + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{\vartheta }_{k}}}} + \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial {{\vartheta }_{k}}}}} dt} \right\}} \Delta {{\vartheta }_{k}} + $
$ + \;\sum\limits_{\nu = 1}^{(L - 1)n} {\sum\limits_{i = 1}^n {{{b}_{{i\nu }}}[\Phi _{{{{k}_{i}}}}^{{{{s}_{i}}}} + \Delta {{\psi }_{{{{k}_{i}}}}}({{{\bar {t}}}_{{{{s}_{i}}}}})]\Delta {{x}_{{{{g}_{i}}}}}({{{\bar {t}}}_{{{{q}_{i}}}}})} } + \sum\limits_{\nu = 1}^{(L - 1)n} {[\Phi _{{{{g}_{\nu }}}}^{{{{q}_{\nu }}}} + \Delta {{\psi }_{{{{g}_{\nu }}}}}({{{\bar {t}}}_{{{{q}_{\nu }}}}})]\Delta {{x}_{{{{g}_{\nu }}}}}({{{\bar {t}}}_{{{{q}_{\nu }}}}})} + R = $
$ = \;\sum\limits_{i = 1}^{L - 1} {\int\limits_{{{{\bar {t}}}_{i}}}^{{{{\bar {t}}}_{{i + 1}}}} {\left[ { - {{{\dot {\psi }}}^{{\text{т}}}}(t) - {{\psi }^{{\text{т}}}}(t)A(t) + \frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial x}}} \right]\Delta x(t)} dt + } $
$ + \;\sum\limits_{k = 1}^n {\left\{ {\sum\limits_{i = 1}^n {[\Phi _{{{{k}_{i}}}}^{{{{s}_{i}}}} + \Delta {{\psi }_{{{{k}_{i}}}}}({{{\bar {t}}}_{{{{s}_{i}}}}})]{{c}_{{ik}}}} + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{\vartheta }_{k}}}} + \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial {{\vartheta }_{k}}}}} dt} \right\}} \Delta {{\vartheta }_{k}} + $
$ + \;\sum\limits_{\nu = 1}^{(L - 1)n} {\left[ {\sum\limits_{i = 1}^n {{{b}_{{i\nu }}}[\Phi _{{{{k}_{i}}}}^{{{{s}_{i}}}} + \Delta {{\psi }_{{{{k}_{i}}}}}({{{\bar {t}}}_{{{{s}_{i}}}}})]} + [\Phi _{{{{g}_{\nu }}}}^{{{{q}_{\nu }}}} + \Delta {{\psi }_{{{{g}_{\nu }}}}}({{{\bar {t}}}_{{{{q}_{\nu }}}}})]} \right]} \Delta {{x}_{{{{g}_{\nu }}}}}({{\bar {t}}_{{{{q}_{\nu }}}}}) + R.$

В силу произвольности вектор-функции $\psi (t)$ потребуем, чтобы она являлась решением сопряженной системы дифференциальных уравнений (2.14), а выражения в последних квадратных скобках были равны 0:

$\sum\limits_{i = 1}^n {{{b}_{{i\nu }}}[\Phi _{{{{k}_{i}}}}^{{{{s}_{i}}}} + \Delta {{\psi }_{{{{k}_{i}}}}}({{{\bar {t}}}_{{{{s}_{i}}}}})]} + [\Phi _{{{{g}_{\nu }}}}^{{{{q}_{\nu }}}} + \Delta {{\psi }_{{{{g}_{\nu }}}}}({{\bar {t}}_{{{{q}_{\nu }}}}})] = 0,\quad \nu = 1,\;2, \ldots ,\;(L - 1)n.$
Отсюда имеем

(2.27)
${{\psi }_{{{{g}_{\nu }}}}}(\bar {t}_{{{{q}_{\nu }}}}^{ + }) = {{\psi }_{{{{g}_{\nu }}}}}(\bar {t}_{{{{q}_{\nu }}}}^{ - }) + \sum\limits_{i = 1}^n {{{b}_{{i\nu }}}(\Phi _{{{{k}_{i}}}}^{{{{s}_{i}}}} + {{\psi }_{{{{k}_{i}}}}}(\bar {t}_{{{{s}_{i}}}}^{ - }) - {{\psi }_{{{{k}_{i}}}}}(\bar {t}_{{{{s}_{i}}}}^{ + }))} + \Phi _{{{{g}_{\nu }}}}^{{{{q}_{\nu }}}},\quad \nu = 1,\;2,\; \ldots ,\;(L - 1)n.$

Тогда искомые компоненты градиента функционала, определяющие линейные части приращения $\Delta J(\vartheta )$ по аргументу $\vartheta $, имеют вид

(2.28)
$\frac{{\partial J}}{{\partial {{\vartheta }_{k}}}} = \sum\limits_{i = 1}^n {[\Phi _{{{{k}_{i}}}}^{{{{s}_{i}}}} + \Delta {{\psi }_{{{{k}_{i}}}}}({{{\bar {t}}}_{{{{s}_{i}}}}})]{\kern 1pt} {{c}_{{ik}}}} + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{\vartheta }_{k}}}} + \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial {{\vartheta }_{k}}}}} dt,\quad k = 1,\;2,\; \ldots ,\;n.$

Таким образом, можно считать доказанной следующую теорему.

Теорема 2. При наложенных условиях на функции и параметры, участвующие в задаче (1.1)–(1.3), функционал (1.3) дифференцируем, а градиент функционала задачи определяется формулами

а) (2.14)–(2.17), если матрица ${{\alpha }_{1}}$ имеет обратную;

б) (2.14), (2.18)–(2.20), если матрица ${{\alpha }_{L}}$ имеет обратную;

в) (2.14), (2.21)–(2.23), если одна из матриц ${{\alpha }_{s}},\,s = 2,\,...,\,L - 1$, имеет обратную;

г) (2.13), (2.27)–(2.28), если обратима матрица $\tilde {\alpha }$, составленная из n столбцов расширенной матрицы $\alpha ;$

а вектор-функция $\psi (t)$ непрерывно дифференцируемая на отрезке $[{{t}_{1}},\,{{t}_{f}}]$ кроме точек ${{t}_{i}}$, $i = 1,\;2,\; \ldots ,\;L - 1$, является решением сопряженной системы дифференциальных уравнений (2.14).

Используя $\delta $-функцию Дирака, условия скачка (2.16), (2.19), (2.22) в точках ${{t}_{i}}$, $i = 1,\;2,\; \ldots ,\;L$, у сопряженной функции можно ввести в правых частях системы дифференциальных уравнений. Тогда сопряженная система уравнений (2.14) для каждого из рассмотренных выше случаев будут иметь различный вид.

Для случая а) и условий (2.16) имеем

$\begin{gathered} \dot {\psi }(t) = - {{A}^{{\text{т}}}}(t)\psi (t) + {{\left( {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial x}}} \right)}^{{\text{т}}}} + \sum\limits_{i = 2}^{L - 1} {\left[ {\alpha _{i}^{{\text{т}}}{{{(\alpha _{1}^{{ - 1}})}}^{{\text{т}}}}\psi ({{t}_{1}}) + \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}} - } \right.} \\ \left. { - \;\alpha _{i}^{{\text{т}}}{{{(\alpha _{1}^{{ - 1}})}}^{T}}\frac{{\partial {{\Phi }^{T}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{1}}}}} \right]\delta (t - {{{\bar {t}}}_{i}}),\quad t \in ({{{\bar {t}}}_{\mu }},{{{\bar {t}}}_{{\mu + 1}}}),\quad \mu = 1,\;2,\; \ldots ,\;L - 1. \\ \end{gathered} $

Для случая б) и условий (2.19) имеем

$\begin{gathered} \dot {\psi }(t) = - {{A}^{{\text{т}}}}(t)\psi (t) + {{\left( {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial x}}} \right)}^{{\text{т}}}} + \sum\limits_{i = 2}^{L - 1} {\left[ { - \alpha _{i}^{{\text{т}}}{{{(\alpha _{L}^{{ - 1}})}}^{{\text{т}}}}\psi ({{t}_{f}}) + \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}} - } \right.} \\ \left. { - \;\alpha _{i}^{{\text{т}}}{{{(\alpha _{L}^{{ - 1}})}}^{{\text{т}}}}\frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{x}_{L}}}}} \right]\delta (t - {{{\bar {t}}}_{i}}),\quad t \in ({{{\bar {t}}}_{\mu }},{{{\bar {t}}}_{{\mu + 1}}}),\quad \mu = 1,\;2, \ldots ,\;L - 1. \\ \end{gathered} $

Для случая в) и условий (2.22) имеем

$\begin{gathered} \dot {\psi }(t) = - {{A}^{{\text{т}}}}(t)\psi (t) + {{\left( {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial x}}} \right)}^{{\text{т}}}} + \sum\limits_{i = 2}^{L - 1} {\left[ {\alpha _{i}^{{\text{т}}}{{{(\alpha _{s}^{{ - 1}})}}^{{\text{т}}}}(\psi (\bar {t}_{s}^{ + }) - \psi (\bar {t}_{s}^{ - })) + \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}} - } \right.} \\ \left. { - \;\alpha _{i}^{{\text{т}}}{{{(\alpha _{s}^{{ - 1}})}}^{{\text{т}}}}\frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{s}}}}} \right]\delta (t - {{{\bar {t}}}_{i}}),\quad i \ne s,\quad t \in ({{{\bar {t}}}_{\mu }},{{{\bar {t}}}_{{\mu + 1}}}),\quad \mu = 1,\;2,\; \ldots ,\;L - 1. \\ \end{gathered} $

Формулы для градиента функционала задачи (1.1)–(1.3) в несколько другой форме можно получить аналогично, как это было сделано, например, в работах [11], [17], введением в функцию Лагранжа задачи слагаемого для учета ограничений (1.2). Для этого в формуле (2.9) перенесем влево $\Delta \vartheta $, умножим скалярно слева обе части полученного выражения, равного нулю, на пока произвольный n-мерный вектор $\lambda $ и прибавим к приращению функционала, заданного формулой (2.11). После несложных преобразований и группировки получим

$\Delta J(\vartheta ) = \sum\limits_{i = 1}^{L - 1} {\left[ { - {{{\dot {\psi }}}^{{\text{т}}}}(t) - {{\psi }^{{\text{т}}}}(t)A(t) + \frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial x}}} \right]\Delta x(t)dt} + $
$ + \;\left[ { - {{\psi }^{{\text{т}}}}({{t}_{1}}) + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{1}}}} + {{\lambda }^{{\text{т}}}}{{\alpha }_{1}}} \right]\Delta x({{t}_{1}}) + \left[ {{{\psi }^{{\text{т}}}}({{t}_{f}}) + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{L}}}} + {{\lambda }^{{\text{т}}}}{{\alpha }_{L}}} \right]\Delta x({{t}_{f}}) + $
$ + \;\sum\limits_{i = 2}^{L - 1} {\left[ {(\psi {{{(\bar {t}_{i}^{ - } - \psi (\bar {t}_{i}^{ + }))}}^{{\text{т}}}} + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}} + {{\lambda }^{{\text{т}}}}{{\alpha }_{i}}} \right]} \Delta x({{\bar {t}}_{i}}) + \left[ {\int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial \vartheta }}dt} - {{\lambda }^{{\text{т}}}}} \right]\Delta \vartheta + R.$

Пользуясь произвольностью вектор-функции $\psi (t)$ и вектора $\lambda \in {{R}^{n}}$, потребуем, чтобы $\psi (t)$ являлась решением сопряженного уравнения (2.14) и удовлетворялись следующие условия:

(2.29)
$\psi ({{t}_{1}}) = \frac{{\partial {{\Phi }^{{\text{т}}}}(\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{1}}}} + \alpha _{1}^{{\text{т}}} \cdot \lambda ,$
(2.30)
$\psi ({{t}_{f}}) = - \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{L}}}} - \alpha _{L}^{{\text{т}}} \cdot \lambda ,$
(2.31)
$\psi (\bar {t}_{i}^{ + }) = \psi (\bar {t}_{i}^{ - }) + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}} + \alpha _{i}^{{\text{т}}} \cdot \lambda ,\quad i = 2,\;3,\; \ldots ,\;L - 1.$

Тогда градиент функционала определится формулой:

(2.32)
$\operatorname{grad} J(\vartheta ) = \int\limits_{{{t}_{1}}}^{{{t}_{f}}} {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial \vartheta }}dt} + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial \vartheta }} - \lambda .$

Теорема 3. Градиент функционала в задаче (1.1)–(1.3) при выполнении приведенных выше предположений относительно функций, участвующих в задаче, определяется формулой (2.32), где пара $\left( {\psi (t),\,\lambda } \right)$ удовлетворяет условиям сопряженной задачи (2.14), (2.29)–(2.31).

Из формул (2.29)–(2.31) для сопряженной функции $\psi (t)$ и градиента функционала несложно получить формулы (2.14)(2.17); (2.14), (2.18)–(2.20); (2.14), (2.21)–(2.23); (2.14), (2.27), (2.28) с учетом возможных случаев 1–3 относительно матрицы $\alpha $.

Формулы (2.14), (2.29)(2.31) различаются от выше приведенных размерностью параметров и числом условий, участвующих в сопряженной задаче. В ранее приведенных формулах число краевых условий для сопряженной переменной равно n, а неизвестных параметров нет. В формулах (2.14), (2.29)(2.31) участвует n-мерный вектор $\lambda $ множителей Лагранжа, для определения которого имеются еще дополнительные $n$ краевых условий, общее число которых равно 2n.

Замечание. Во многих задачах в условии (1.2) оптимизируемыми являются не все компоненты вектора $\vartheta \in {{R}^{n}}$, а некоторая его часть. В этом случае в приведенных формулах градиента функционала необходимо использовать компоненты, соответствующие только оптимизируемым параметрам.

Теперь сформируем необходимые условия оптимальности в задаче (1.1)–(1.3).

Теорема 4. Пусть $\left( {\vartheta *,x{\text{*}}(t)} \right)$ является решением задачи (1.1)–(1.3). Тогда необходимо и достаточно, чтобы для произвольного допустимого вектора $\vartheta \in V$ имело место

$\left( {\operatorname{grad} J(\vartheta *),\vartheta - \vartheta {\text{*}}} \right) \geqslant 0,$
где ${\text{grad}}\,J(\vartheta *)$ определяется одной из формул (2.20), (2.23), (2.28) или (2.32).

Доказательство теоремы основано на выпуклости допустимой области $V$, выпуклости и дифференцируемости целевого функционала $\,J(\vartheta )$ (см. [27], [28]).

3. СХЕМА ЧИСЛЕННОГО РЕШЕНИЯ ЗАДАЧИ И РЕЗУЛЬТАТЫ КОМПЬЮТЕРНЫХ ЭКСПЕРИМЕНТОВ

Пользуясь полученными формулами для компонентов градиента целевого функционала, для численного решения задачи можно использовать известные итерационные методы оптимизации первого порядка. В случае если допустимое множество оптимизируемых параметров $V$ имеет простую структуру (параллелепипед, шар и т.п.), то эффективно использовать метод проекции градиента [27], [28]:

(3.1)
$\begin{gathered} {{\vartheta }^{{k + 1}}} = {{P}_{V}}({{\vartheta }^{k}} - {{\alpha }_{k}}\operatorname{grad} J({{\vartheta }^{k}})),\quad k = 0,\;1,\; \ldots , \hfill \\ {{\alpha }_{k}} = \mathop {\arg \min }\limits_{\alpha \geqslant 0} J({{P}_{V}}({{\vartheta }^{k}} - {{\alpha }_{k}}\operatorname{grad} J({{\vartheta }^{k}}))). \hfill \\ \end{gathered} $
Здесь ${{P}_{V}}(\vartheta )$ – оператор проектирования управления $\vartheta \in {{E}^{n}}$ на допустимое множество $V$, ${{\alpha }_{k}} \geqslant 0$ – шаг одномерной минимизации.

В случае, если допустимое множество $V$ задано в общем виде с помощью равенств и неравенств

$V = \{ \vartheta \in {{R}^{n}}:{{g}_{i}}(\vartheta ) \leqslant 0,\;{{h}_{j}}(\vartheta ) = 0,\;i = 1,\;2,\; \ldots ,\;{{m}_{1}},\;j = 1,\;2,\; \ldots ,\;{{m}_{2}}\} ,$
то можно использовать, например, методы штрафных функций [27], [29], при этом в приведенных выше формулах несущественно изменятся только выражения для компонентов градиента функционала по $\vartheta $.

Для численного решения систем дифференциальных уравнений с многоточечными условиями как для прямой задачи (1.1), (1.2), так и сопряженной задачи при заданном векторе параметров $\vartheta $ можно использовать метод сдвига условий, предложенный в работах [5], [13], [14]. За счет увеличения порядка системы дифференциальных уравнений (1.1) в $L$ раз исходную задачу можно привести к двухточечной [30], а далее использовать методы прогонки [31], [32]. При этом соответственно увеличатся порядки вспомогательных задач Коши, используемых в методах прогонки. Применение такого подхода для решения задач оптимального управления, учитывая необходимость многократного решения прямой и сопряженной задач, как было показано в работе [13], неэффективно.

Задача 1. Приведем результаты численных экспериментов, полученные при решении следующей задачи оптимизации, описываемой системой дифференциальных уравнений:

(3.2)
$\begin{array}{*{20}{c}} {{{{\dot {x}}}_{1}}(t) = 3t{{x}_{1}}(t) - {{x}_{2}}(t) - 3{{t}^{3}} - 6t\sin 5t + 13\cos 5t - 2t + 2,} \\ {{{{\dot {x}}}_{2}}(t) = {{x}_{1}}(t) + 2{{x}_{2}}(t) - {{t}^{2}} - 17\sin 5t - 6\cos 5t + 2t - 6,\quad t \in [0,1],} \end{array}$
с нелокальными условиями
(3.3)
$\begin{gathered} {{x}_{1}}(0) + {{x}_{2}}(0.5) - 2{{x}_{2}}(1) = {{\vartheta }_{1}}, \\ 2{{x}_{1}}(0) + 3{{x}_{2}}(0.5) + {{x}_{2}}(1) = {{\vartheta }_{2}}. \\ \end{gathered} $
Целевой функционал имеет вид

(3.4)
$\begin{gathered} J(\vartheta ) = \int\limits_0^1 {{{{[2{{x}_{1}}(t) + {{x}_{2}}(t) - 4\sin 5t - 3\cos 5t - 2{{t}^{2}} + t - 4]}}^{2}}} dt + {{[{{x}_{2}}(0.5) + 0.9034]}^{2}} + \\ + \;{{[{{x}_{1}}(1) - 0.08215]}^{2}} + {{[{{x}_{2}}(1) - 1.8510]}^{2}} + {{[{{\vartheta }_{1}} + 3.6054]}^{2}} + {{[{{\vartheta }_{2}} - 1.1407]}^{2}} \to \min . \\ \end{gathered} $

Точным решением задачи являются параметры ${{\vartheta }_{1}} = - 3.6054$, ${{\vartheta }_{2}} = 1.1407$ и фазовые переменные –${{x}_{1}}(t) = 2\sin 5t + {{t}^{2}} + 1$, ${{x}_{2}}(t) = 3\cos 5t - t + 2$, при этом $J(\vartheta *) = 0$.

Сопряженная задача (2.14) имеет вид

(3.5)
$\begin{gathered} {{{\dot {\psi }}}_{1}}(t) = - 3t{{\psi }_{1}}(t) - {{\psi }_{2}}(t) + 4(2{{x}_{1}}(t) + {{x}_{2}}(t) - 4\sin 5t - 3\cos 5t - 2{{t}^{2}} + t - 4), \\ {{{\dot {\psi }}}_{2}}(t) = {{\psi }_{1}}(t) - 2{{\psi }_{2}}(t) + 2(2{{x}_{1}}(t) + {{x}_{2}}(t) - 4\sin 5t - 3\cos 5t - 2{{t}^{2}} + t - 4). \\ \end{gathered} $

В условиях (3.3) каждая из матриц

${{\alpha }_{1}} = \left( {\begin{array}{*{20}{c}} 1&0 \\ 2&0 \end{array}} \right),\quad {{\alpha }_{2}} = \left( {\begin{array}{*{20}{c}} 0&1 \\ 0&3 \end{array}} \right),\quad {{\alpha }_{3}} = \left( {\begin{array}{*{20}{c}} 0&{ - 2} \\ 0&1 \end{array}} \right)$
имеет ранг, равный $1$. Расширенная матрица
$\alpha = \left( {\begin{array}{*{20}{c}} 1&0&0&1&0&{ - 2} \\ 2&0&0&3&0&1 \end{array}} \right)$
имеет ранг, равный $2$. Это соответствует рассмотренному выше случаю 3. Матрицу $\hat {\alpha }$ составим из первого столбца матрицы ${{\alpha }_{1}}$ и второго столбца матрицы ${{\alpha }_{2}}$:

$\hat {\alpha } = \left( {\begin{array}{*{20}{c}} 1&1 \\ 2&3 \end{array}} \right),\quad \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{\alpha } = \left( {\begin{array}{*{20}{c}} 0&0&0&{ - 2} \\ 0&0&0&1 \end{array}} \right).$

Это значит, что в формулах (2.27), (2.28) индексы (${{k}_{i}}$; ${{s}_{i}}$), $i = 1,\;2$, и (${{g}_{\nu }}$; ${{q}_{\nu }}$), $j = 1,\;2,\;3,\;4$, имеют следующие значения:

$({{k}_{1}};{{s}_{1}}) = (1;1),\quad ({{k}_{2}};{{s}_{2}}) = (2;2),$
$({{g}_{1}};{{q}_{1}}) = (2;1),\quad ({{g}_{2}};{{q}_{2}}) = (1;2),\quad ({{g}_{3}};{{q}_{3}}) = (1;3),\quad ({{g}_{4}};{{q}_{4}}) = (2;3).$
Тогда для матриц $B$ и $С$ имеем

$B = - {{\hat {\alpha }}^{{ - 1}}}\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{\alpha } = \left( {\begin{array}{*{20}{c}} 0&0&0&7 \\ 0&0&0&{ - 5} \end{array}} \right),\quad C = {{\hat {\alpha }}^{{ - 1}}} = \left( {\begin{array}{*{20}{c}} 3&{ - 1} \\ { - 2}&1 \end{array}} \right).$

Для элементов векторов ${{\Phi }^{i}} = \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{i}}}}$, $i = 1,\;2,\;3$, имеем

$\Phi _{{{{k}_{1}}}}^{{{{s}_{1}}}} = \Phi _{1}^{1} = \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{{11}}}}} = 0,\quad \Phi _{{{{k}_{2}}}}^{{{{s}_{2}}}} = \Phi _{2}^{2} = \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{{22}}}}} = 2({{x}_{2}}(0.5) + 0.9034),$
$\Phi _{{{{g}_{1}}}}^{{{{q}_{1}}}} = \Phi _{1}^{1} = 0,\quad \Phi _{{{{g}_{2}}}}^{{{{q}_{2}}}} = \Phi _{2}^{2} = 2({{x}_{2}}(0.5) + 0.9034),$
$\Phi _{{{{g}_{3}}}}^{{{{q}_{3}}}} = \Phi _{1}^{3} = \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{{31}}}}} = 2({{x}_{2}}(1) - 1.8510),\quad \Phi _{{{{g}_{4}}}}^{{{{q}_{4}}}} = \Phi _{2}^{2} = \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{{\bar {x}}}_{{32}}}}} = 2({{x}_{1}}(1) - 0.08215).$
Тогда условия (2.27) :
$\sum\limits_{i = 1}^2 {{{b}_{{i\nu }}}[\Phi _{{{{k}_{i}}}}^{{{{s}_{i}}}} + {{\psi }_{{{{k}_{i}}}}}(\bar {t}_{{{{s}_{i}}}}^{ - }) - {{\psi }_{{{{k}_{i}}}}}(\bar {t}_{{{{s}_{i}}}}^{ + })]} + \Phi _{{{{g}_{\nu }}}}^{{{{q}_{\nu }}}} + {{\psi }_{{{{g}_{\nu }}}}}(\bar {t}_{{{{q}_{\nu }}}}^{ - }) - {{\psi }_{{{{g}_{\nu }}}}}(\bar {t}_{{{{q}_{\nu }}}}^{ + }) = 0,\quad \nu = 1,\;2,\;3,\;4,$
примут вид

(3.6)
$\begin{gathered} 7{{\psi }_{1}}(0) + 5({{\psi }_{2}}({{0.5}^{ - }}) - {{\psi }_{2}}({{0.5}^{ + }})) - {{\psi }_{2}}(1) = 2({{x}_{2}}(1) - 1.8510) - 10({{x}_{2}}(0.5) + 0.9034), \\ {{\psi }_{1}}(1) = - 2({{x}_{1}}(1) - 0.08215), \\ {{\psi }_{2}}(0) = 0,\quad {{\psi }_{2}}({{0.5}^{ - }}) - {{\psi }_{2}}({{0.5}^{ + }}) = 0. \\ \end{gathered} $

Компоненты градиента функционала согласно формуле (2.28):

$\frac{{\partial J}}{{\partial {{\vartheta }_{k}}}} = \sum\limits_{i = 1}^2 {[\Phi _{{{{k}_{i}}}}^{{{{s}_{i}}}} + \Delta {{\psi }_{{{{k}_{i}}}}}({{{\bar {t}}}_{{{{s}_{i}}}}})]{{c}_{{ik}}}} + \frac{{\partial \Phi (\bar {x},\vartheta )}}{{\partial {{\vartheta }_{k}}}} + \int\limits_0^1 {\frac{{\partial {{f}^{0}}(x,\vartheta ,t)}}{{\partial {{\vartheta }_{k}}}}} dt,\quad k = 1,\;2,$
определяются в виде

(3.7)
$\begin{gathered} \operatorname{grad} J(\vartheta ) = \left( { - 3{{\psi }_{1}}(0) - 2({{\psi }_{2}}({{{0.5}}^{ - }}) - {{\psi }_{2}}({{{0.5}}^{ + }})) - 4({{x}_{2}}(0.5) + 0.9034) + 2({{\vartheta }_{1}} + 3.6054)} \right.; \\ {{\left. {{{\psi }_{1}}(0) + ({{\psi }_{2}}({{{0.5}}^{ - }}) - {{\psi }_{2}}({{{0.5}}^{ + }})) + 2({{x}_{2}}(0.5) + 0.9034) + 2({{\vartheta }_{2}} - 1.1407)} \right)}^{{\text{т}}}}. \\ \end{gathered} $

Итерационная процедура метода сопряженных градиентов безусловной оптимизации [28] проводилась с точностью по функционалу $\varepsilon = {{10}^{{ - 5}}}$ из разных начальных точек ${{\vartheta }^{0}}$. На каждой итерации (3.2) вспомогательные задачи Коши метода сдвига условий (см. [13], [14]) как для решения прямой (3.2), (3.3), так и сопряженной (3.5), (3.6) задач решались методом Рунге–Кутты четвертого порядка с шагом $h = 0.01$.

В табл. 1 приведены результаты, полученные на седьмой и десятой итерациях метода сопряженных градиентов, и точные оптимальные значения фазовой переменной, при этом значения функционала и оптимизируемых параметров были следующими: ${{\vartheta }^{{(7)}}} = ( - 3.6066;\;{\kern 1pt} 1.1440)$, $J({{\vartheta }^{{(7)}}}) = 0.0000134$, ${{\vartheta }^{{(10)}}} = ( - 3.6061;\;{\kern 1pt} 1.1418)$, $J({{\vartheta }^{{(10)}}}) = 0.0000013$.

Таблица 1.  

Значения фазовых переменных точного и полученного решений задачи 1

$t$ Точное решение Результаты 7-й итерации Результаты 10-й итерации
$x_{1}^{*}(t)$ $x_{2}^{*}(t)$ $x_{1}^{{(7)}}(t)$ $x_{2}^{{(7)}}(t)$ $\psi _{1}^{{(7)}}(t)$ $\psi _{2}^{{(7)}}(t)$ $x_{1}^{{(10)}}(t)$ $x_{2}^{{(10)}}(t)$ $\psi _{1}^{{(10)}}(t)$ $\psi _{2}^{{(10)}}(t)$
0 1.0000 5.0000 1.0002 5.0001 –0.3202 0.0000 1.0000 5.0001 –0.0099 0.0000
10 1.9689 4.5327 1.9690 4.5329 –0.3428 –0.0438 1.9688 4.5328 –0.0383 –0.0157
20 2.7229 3.4209 2.7231 3.4211 –0.3303 –0.0703 2.7229 3.4210 –0.0427 –0.0203
30 3.0850 1.9122 3.0851 1.9125 –0.2846 –0.0787 3.0849 1.9124 –0.0230 –0.0125
40 2.9786 0.3516 2.9787 0.3519 –0.2160 –0.0712 2.9785 0.3517 0.0133 0.0054
50 2.4469 –0.9034 2.4471 –0.9030 –0.1401 –0.4655 2.4468 –0.9032 0.0535 0.0102
60 1.6422 –1.5700 1.6423 –1.5694 –0.0395 –0.3687 1.6421 –1.5698 0.0853 0.0355
70 0.7884 –1.5094 0.7885 –1.5087 0.0258 –0.2878 0.7882 –1.5091 0.0962 0.0525
80 0.1264 –0.7609 0.1263 –0.7601 0.0519 –0.2274 0.1261 –0.7607 0.0823 0.0565
90 –0.1451 0.4676 –0.1452 0.4686 0.0437 –0.1891 –0.1455 0.4679 0.0470 0.0460
100 0.0822 1.8510 0.0818 1.8522 0.0127 –0.1706 0.0815 1.8513 0.0002 0.0232

На фиг. 1 приведены графики полученных решений прямой и сопряженной задач.

Фиг. 1.

Полученные решения прямой (а) и сопряженной (б) задач.

Задача 2. Рассмотрим задачу, которая отличается от предыдущей целевым функционалом

$J(\vartheta ) = \int\limits_0^1 {{{{[2{{x}_{1}}(t) + {{x}_{2}}(t) - 4\sin 5t - 3\cos 5t - 2{{t}^{2}} + t - 4]}}^{2}}} dt + {{[{{x}_{2}}(0.5) + 0.9034]}^{2}} \to \min $
и наличием следующих ограничений на оптимизируемые параметры:

$ - 3 \leqslant {{\vartheta }_{1}} \leqslant 3,\quad - {\kern 1pt} 1 \leqslant {{\vartheta }_{2}} \leqslant 1.$

В этой задаче точное оптимальное решение неизвестно. Для численного решения использовалась итерационная процедура метода проекции градиента (3.1). Ясно, что сопряженная система дифференциальных уравнений будет такая же, что и в задаче 1, а в формулах компонентов градиента функционала (3.7) будут отсутствовать последние слагаемые:

$\begin{gathered} {\text{grad}}\,J(\vartheta ) = \left( { - 3{{\psi }_{1}}(0) - 2({{\psi }_{2}}({{{0.5}}^{ - }}) - {{\psi }_{2}}({{{0.5}}^{ + }})) - 4({{x}_{2}}(0.5) + 0.9034)} \right.; \\ {{\left. {{{\psi }_{1}}(0) + ({{\psi }_{2}}({{{0.5}}^{ - }}) - {{\psi }_{2}}({{{0.5}}^{ + }})) + 2({{x}_{2}}(0.5) + 0.9034)} \right)}^{{\text{т}}}}. \\ \end{gathered} $

Для численного решения прямой и сопряженной задач с нелокальными условиями использовались те же схемы, что и для задачи 1.

На фиг. 2 и в табл. 2 приведены полученные результаты решения.

Фиг. 2.

Полученные на 10-й итерации решения прямой (а) и сопряженной (б) задач.

Таблица 2.  

Полученные значения решения прямой и сопряженной задач

$t$ Результаты 1-й итерации Результаты 10-й итерации
$x_{1}^{{(1)}}(t)$ $x_{2}^{{(1)}}(t)$ $\psi _{1}^{{(1)}}(t)$ $\psi _{2}^{{(1)}}(t)$ $x_{1}^{{(10)}}(t)$ $x_{2}^{{(10)}}(t)$ $\psi _{1}^{{(10)}}(t)$ $\psi _{2}^{{(10)}}(t)$
0 0.9047 4.8446 –740.1077 0.0000 0.9599 4.9412 –0.2515 0.0000
10 1.8900 4.3333 –728.5217 –68.0958 1.9349 4.4568 –0.3297 –0.0656
20 2.6635 3.1695 –690.3040 –121.6801 2.6962 3.3247 –0.3713 –0.1160
30 3.0501 1.5999 –630.4063 –161.2770 3.0674 1.7922 –0.3752 –0.1496
40 2.9765 –0.0322 –555.3486 –187.8747 2.9731 0.2037 –0.3486 –0.1678
50 2.4900 –1.3701 –472.3502 –1133.6904 2.4582 –1.0838 –0.3045 –0.8157
60 1.7488 –2.1320 –311.2200 –966.6195 1.6771 –1.7878 –0.2036 –0.6978
70 0.9858 –2.1794 –184.5663 –817.9093 0.8572 –1.7699 –0.1292 –0.5962
80 0.4553 –1.5509 –92.3471 –687.8175 0.2443 –1.0691 –0.0801 –0.5106
90 0.3765 –0.4512 –32.1263 –576.6231 0.0451 0.1079 –0.0445 –0.4359
100 0.8896 0.8007 –0.0000 –484.5452 0.3797 1.4380 –0.0000 –0.3596

Для начального вектора параметров $\,{{\vartheta }^{{(0)}}} = (2.5;\; - {\kern 1pt} 0.5)$ функционал был равен $J({{\vartheta }^{0}}) = 893.82897$, а после десятой итерации значения функционала и параметров соответственно были равны: $J({{\vartheta }^{{(10)}}}) = 0.0505632$, ${{\vartheta }^{{(10)}}} = ( - 3.0000;\;{\kern 1pt} 0.1817)$.

На фиг. 2 и в табл. 2 приведены результаты решения прямой и сопряженных задач, полученные на десятой итерации итерационной процедуры (3.1). Ясно, что полученное минимальное значение функционала больше 0 и превышает соответственно оптимальное значение функционала задачи 1. В задаче 2 существенно изменилось поведение сопряженной переменной ${{\psi }_{2}}(t)$, а фазовые траектории ${{x}_{1}}(t)$, ${{x}_{2}}(t)$ поменялись не существенно. Это объясняется тем, что подынтегральные функции в целевых функционалах обоих задач одинаковы и определяются близостью траекторий (${{x}_{1}}(t)$, ${{x}_{2}}(t)$) к заданным функциям, являющихся оптимальными траекториями в задаче 1. Как видно, сами оптимизируемые параметры в задачах отличаются более существенно.

ЗАКЛЮЧЕНИЕ

В работе исследована задача оптимизации значений правых частей линейных неразделенных многоточечных условий для линейной системы дифференциальных уравнений. Получены необходимые условия оптимальности определяемых параметров, содержащие формулы для градиента целевого функционала. Для численного решения задачи применены итерационные методы первого порядка, использующие полученные формулы градиента функционала.

Проведенные исследования могут быть использованы в задачах оптимального управления с управлением в правых частях дифференциальных уравнений, в задачах с другими видами нелокальных условий (с неразделенными интегральными, с неразделенными точечными и интегральными слагаемыми). Результаты работы могут быть использованы также в задачах с другими видами нелокальных функциональных уравнений (интегро-дифференциальных, нагруженных и других).

Список литературы

  1. Нахушев А.М. Нагруженные уравнения и их применение. М.: Наука, 2012.

  2. Нахушева В.А. Дифференциальные уравнения математических моделей нелокальных процессов. М.: Наука, 2006 .

  3. Пулькина Л.С. Краевые задачи для гиперболического уравнения с нелокальными условиями I и II рода // Изв. вузов. Матем. 2012. № 4. С. 74–83.

  4. Алиханов А.А. Нелокальная краевая задача В.А. Стеклова второго класса для простейших уравнений математической физики // Вестн. Сам. гос. техн. ун-та. Сер. Физ.-матем. науки. 2013. Т. 1. № 30. С. 15–23.

  5. Aida-zade K.R., Abdullaev V.M. On the solution of boundary value problems with nonseparated multipoint and integral conditions // Differ. Equations. 2013. V. 49. № 9. P. 1114–1125.

  6. Dzhumabaev D.S., Imanchiev A.E. The correct solvability of a linear multipoint boundary value problem // Mat. J. 2005. V. 5. № 15. P. 30–38.

  7. Асанова А.Т., Иманчиев А.Е., Кадирбаева Ж.М. О разрешимости нелокальной задачи для системы дифференциальных уравнений соболевского типа с многоточечным условием // Изв. вузов. Матем. 2019. № 12. С. 3–15.

  8. Devadze D., Beridze V. Optimality Conditions and Solution Algorithms of Optimal Control Problems for Nonlocal Boundary-Value Problems // J. Math. Sci. 2016. V. 218. P. 731–736.

  9. Антипин А.С. Терминальное управление краевыми моделями // Ж. вычисл. матем. и матем. физ. 2014. Т. 54. № 2. С. 257–285.

  10. Антипин А.С., Хорошилова Е.В. О синтезе обратной связи для задачи терминального управления моделями // Ж. вычисл. матем. и матем. физ. 2018. Т. 58. № 12. С. 1973–1991.

  11. Абдуллаев В.М., Айда-заде К.Р. Подход к численному решению задач оптимального управления нагруженными дифференциальными уравнениями с нелокальными условиями // Ж. вычисл. матем. и матем. физ. 2019. Т. 59. № 5. С. 739–751.

  12. Dzhumabaev D.S. On one approach to solve the linear boundary value problems for Fredholm integrodifferential equations // J. Comput. Appl. Math. 2016. V. 294. № 2. P. 342–357.

  13. Абдуллаев В.М., Айда-заде К.Р. О численном решении нагруженных систем обыкновенных дифференциальных уравнений // Ж. вычисл. матем. и матем. физ. 2004. Т. 44. № 9. С.1585–1595.

  14. Абдуллаев В.М., Айда-заде К.Р. Численный метод решения нагруженных нелокальных граничных задач для обыкновенных дифференциальных уравнений // Ж. вычисл. матем. и матем. физ. 2014. Т. 54. № 7. С. 1096–1109.

  15. Ащепков Л.Т. Оптимальное управление системой с промежуточными условиями // Прикл. матем. механ. 1981. Т. 45. Вып. 2. С. 215–222.

  16. Васильева О.О., Мизуками К. Динамические процессы, описываемые краевой задачей: необходимые условия оптимальности и методы решения // Известия АН. Теория и системы управления. 2000. № 1. С. 95–100.

  17. Васильева О.О., Мизуками К. Оптимальное управление краевой задачей // Изв. вузов. Матем. 1994. № 12. С. 33–41.

  18. Sharifov Y.A., Mammadova N.B. Optimal control problem described by impulsive differential equations with nonlocal boundary conditions // Differ. Equations. 2014. V. 50. № 3. P. 403–411.

  19. Assanova A.T. Solvability of a nonlocal problem for a hyperbolic equation with integral conditions // Electronic Journal of Differential Equations. 2017. V. 170. P. 1–12.

  20. De la Vallee-Poussin, Ch.J. Sur l’équation différentielle linéare du second ordre. Détermination d’une integrale par deux valeurs assignées. Extension aux équations d’orde n // J. Math. Pures Appl. 1929. V. 8. № 9. P. 125–144.

  21. Тамаркин Я.Д. О некоторых общих задачах теории обыкновенных дифференциальных уравнений и о разложении произвольных функций в ряды. Петроград, 1917.

  22. Кигурадзе И.Т. Краевые задачи для систем обыкновенных дифференциальных уравнений // Итоги науки и техники. Совр. проблемы математики. Нов. достижения. 1987. Т. 30. С. 3–103.

  23. Antipin A.S., Khoroshilova E.V. Controlled dynamic model with boundary-value problem of minimizing a sensitivity function // Optim. Lett. 2019. V. 13. № 3. P. 451–473.

  24. Айда-заде К.Р., Ашрафова Е.Р. Численное решение задачи определения мест и объемов утечек при неустановившемся движении жидкости в трубопроводной сети сложной структуры // Ж. вычисл. матем. и матем. физ. 2017. Т. 57. № 12. С. 1966–1982.

  25. Абдуллаев В.М., Айда-заде К.Р. Численное решение задачи определения количества и мест замеров состояния при управлении процессом нагрева с обратной связью // Ж. вычисл. матем. и матем. физ. 2018. Т. 58. № 1. С. 83–94.

  26. Бутковский А.Г. Методы управления системами с распределенными параметрами. М.: Наука, 1975. 568 с.

  27. Васильев Ф.П. Методы оптимизации. М.: Факториал, 2002. С. 824.

  28. Поляк Б.Т. Введение в оптимизацию. М.: Наука, 1983.

  29. Евтушенко Ю.Г. Методы решения экстремальных задач и их применение в системах оптимизации. М.: Наука, 1982.

  30. Moszynski K. A method of solving the boundary value problem for a system of linear ordinary differential equation // Algorytmy. Varshava. 1964. 11. № 3. P. 25–43.

  31. Абрамов А.А. Вариант метода прогонки // Ж. вычисл. матем. и матем. физ. 1961. Т. 1. № 2. С. 349–352.

  32. Абрамов А.А., Бураго Н.Г. и др. Пакет прикладных программ для решения линейных двухточечных краевых задач // Сообщения по программному обеспечению ЭВМ. М.: ВЦ АН СССР, 1982. 63 с.

Дополнительные материалы отсутствуют.