Журнал вычислительной математики и математической физики, 2019, T. 59, № 10, стр. 1681-1694
Использование функций обратных связей в задачах линейного программирования
А. Е. Умнов 1, *, Е. А. Умнов 1
1 МФТИ
141700 М.о., Долгопрудный, Институтский пер., 9, Россия
* E-mail: mail@umnov.ru
Поступила в редакцию 25.03.2019
После доработки 02.04.2019
Принята к публикации 10.06.2019
Аннотация
В статье рассматривается схема решения задач линейного программирования, основанная на использовании вспомогательных функций, реализующих обратную связь в системе условий для искомых переменных и множителей Лагранжа. Приводится обоснование предлагаемого подхода. Библ. 7. Фиг. 1. Табл. 3.
1. ВВЕДЕНИЕ
В данной статье рассматривается вариант метода асимптотических оценок для решения стандартной задачи линейного программирования вида максимизировать по $x \in {{E}^{n}}$ с координатным представлением $\left\| x \right\| = {{\left\| {{{\xi }_{1}},{{\xi }_{2}}, \ldots ,{{\xi }_{n}}} \right\|}^{{\text{T}}}}$
(1.2)
${\text{при}}\;{\text{условиях}}{\kern 1pt} :\quad {{\xi }_{j}} \geqslant 0\quad \forall j = [1,n],\quad {{f}_{i}}(x) \leqslant 0\quad \forall i = [1,m],$2. СХЕМА МЕТОДА ОБРАТНЫХ СВЯЗЕЙ ДЛЯ ЛИНЕЙНЫХ ЗАДАЧ
Вначале рассмотрим использование предлагаемого подхода для решения пары взаимно двойственных задач линейного программирования, записанных в симметричной форме.
Пусть векторы $x \in {{E}^{n}}$ и $\Lambda \in {{E}^{m}},$ имеющие координатные столбцы вида $\left\| x \right\| = {{\left\| {{{\xi }_{1}}{{\xi }_{2}} \ldots {{\xi }_{n}}} \right\|}^{{\text{T}}}}$ и $\left\| \Lambda \right\| = {{\left\| {{{\lambda }_{1}}{{\lambda }_{2}} \ldots {{\lambda }_{m}}} \right\|}^{{\text{T}}}},$ являются искомыми, соответственно, для равносильной задачи (1.1), (1.2) паре задач следующего вида.
1. Прямой задачи линейного программирования, т.е.
максимизировать по $\{ {{\xi }_{1}},{{\xi }_{2}}, \ldots ,{{\xi }_{n}}\} $функцию $F(x) = \sum\nolimits_{j = 1}^n {{{\sigma }_{j}}{{\xi }_{j}}} $
(2.1)
${\text{при}}\;{\text{условиях}}\quad {{\xi }_{j}} \geqslant 0\quad \forall j = [1,n],\quad {\text{где}}\quad {{f}_{i}}(x) = - {{\beta }_{i}} + \sum\limits_{j = 1}^n \,{{\alpha }_{{ij}}}{{\xi }_{j}} \leqslant 0\quad \forall i = [1,m].$Любое решение задачи (2.1) обозначим как $x{\kern 1pt} *,$ а $F(x{\kern 1pt} *)$ через $F{\kern 1pt} *$.
2. Двойственной задачи линейного программирования, т.е.
минимизировать по $\{ {{\lambda }_{1}},{{\lambda }_{2}}, \ldots ,{{\lambda }_{m}}\} $ функцию $G(\Lambda ) = \sum\nolimits_{i = 1}^m {{{\beta }_{i}}{{\lambda }_{i}}} $
(2.2)
${\text{при}}\;{\text{условиях}}\quad {{\lambda }_{i}} \geqslant 0\quad \forall i = [1,m],\quad {\text{где}}\quad {{g}_{j}}(\Lambda ) = - {{\sigma }_{j}} + \sum\limits_{i = 1}^m \,{{\alpha }_{{ij}}}{{\lambda }_{i}} \geqslant 0\quad \forall j = [1,n].$Ее решение будем обозначать через $\Lambda {\kern 1pt} *$ и пусть $G{\kern 1pt} * = G(\Lambda {\kern 1pt} {\text{*}})$.
Последующее изложение может быть упрощено, если вначале привести краткое описание схемы решения пары задач (2.1) и (2.2) следующим вариантом метода гладких штрафных функций [1].
Предположим, что в этом методе используются вспомогательные функции вида
(2.3)
$\begin{array}{*{20}{c}} {{{A}_{{\text{P}}}}(\tau ,x) = F(x) - \sum\limits_{i = 1}^m \,P(\tau ,{{f}_{i}}(x)) - \sum\limits_{j = 1}^n \,P(\tau ,( - {{\xi }_{j}})){\text{,}}} \\ {{{A}_{{\text{D}}}}(\tau ,\Lambda ) = G(\Lambda ) + \sum\limits_{j = 1}^n \,P(\tau , - {{g}_{j}}(\Lambda )) + \sum\limits_{i = 1}^m \,P(\tau ,( - {{\lambda }_{i}})),} \end{array}$1. $\forall s$ и $\forall \tau > 0\,:$ $P(\tau ,s) \geqslant 0$ и $\mathop {lim}\limits_{\tau \to + 0} P(\tau ,s)\left\{ \begin{gathered} + \infty ,\quad s > 0, \hfill \\ 0,\quad s < 0. \hfill \\ \end{gathered} \right.$
2. Функция $P(\tau ,s)$ имеет непрерывные частные производные по всем своим аргументам
3. Для всех $\tau > 0$ и $\forall s$ выполнены неравенства $\tfrac{{\partial P}}{{\partial s}} > 0;$ $\tfrac{{{{\partial }^{2}}P}}{{\partial {{s}^{2}}}} > 0$.
Пусть
(2.5)
$\mathop {{\text{grad}}}\limits_x \,{{A}_{{\text{P}}}}(\tau ,\tilde {x}(\tau )) = 0\quad {\text{и}}\quad \mathop {\operatorname{grad} }\limits_\Lambda \,{{A}_{{\text{D}}}}(\tau ,\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{\Lambda } (\tau )) = 0.$Наконец, в регулярном случае (т.е. в случае однозначной разрешимости пары задач (2.1), (2.2)) $\tilde {x}(\tau )$ может служить аппроксимацией $x{\kern 1pt} *$ и соответственно $\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{\Lambda } (\tau )$ – аппроксимацией для $\Lambda {\kern 1pt} *$. И, как показано, например в [3], при этом оказываются справедливыми равенства
Приступим теперь к описанию предлагаемого подхода, используя соображения, изложенные в [4].
Как известно, по свойству взаимодвойственных задач (2.1), (2.2) компоненты вектора ${{x}^{*}}$ являются множителями Лагранжа для задачи (2.2), а компоненты вектора $\Lambda {\kern 1pt} *$ суть множители Лагранжа в задаче (2.1). Однако при каждом фиксированном $\tau > 0,$ вообще говоря, имеем
Здесь можно предположить, что найдется ${{\tau }_{0}} > 0,$ для которого будут существовать вектор-функции $\bar {x}(\tau )$ и $\bar {\Lambda }(\tau ),$ являющиеся $\forall \tau \in (0,{{\tau }_{0}}]$ решениями системы уравнений вида
(2.6)
$\begin{gathered} {{{\bar {\lambda }}}_{i}}(\tau ) = \frac{{\partial P}}{{\partial s}}(\tau ,{{f}_{i}}(\bar {x}(\tau )))\quad \forall i = [1,m], \hfill \\ {{{\bar {\xi }}}_{j}}(\tau ) = \frac{{\partial P}}{{\partial s}}(\tau , - {{g}_{j}}(\bar {\Lambda }(\tau )))\quad \forall j = [1,n], \hfill \\ \end{gathered} $Заметим, что система (2.6) также может быть записана в виде
(2.7)
$\begin{array}{*{20}{c}} {{{f}_{i}}(\tau ,\bar {x}(\tau )) = Q(\tau ,{{{\bar {\lambda }}}_{i}}(\tau ))\quad \forall i = [1,m],} \\ { - {{g}_{j}}(\tau ,\bar {\Lambda }(\tau )) = Q(\tau ,{{{\bar {\xi }}}_{j}}(\tau ))\quad \forall j = [1,n]} \end{array}\quad {\text{или}}\quad \begin{array}{*{20}{c}} { - {{\beta }_{i}} + \sum\limits_{j = 1}^n \,{{\alpha }_{{ij}}}{{{\bar {\xi }}}_{j}} = Q(\tau ,{{{\bar {\lambda }}}_{i}})\quad \forall i = [1,m],} \\ { - {{\sigma }_{j}} + \sum\limits_{i = 1}^m \,{{\alpha }_{{ij}}}{{{\bar {\lambda }}}_{i}} = - Q(\tau ,{{{\bar {\xi }}}_{j}})\quad \forall j = [1,n],} \end{array}$Возможную истинность сделанного предположения подтверждает следующий
Пример 1. Для пары задач с параметром $v$:
прямая задача: максимизировать в ${{E}^{2}}$ функцию $F(x) = 2{{\xi }_{1}} + 3{{\xi }_{2}},$
при условиях ${{\xi }_{1}} \geqslant 0,$ ${{\xi }_{2}} \geqslant 0$ и ${{\xi }_{1}} + 2{{\xi }_{2}} \leqslant v,$ $2{{\xi }_{1}} + {{\xi }_{2}} \leqslant 6;$
двойственная задача: минимизировать в ${{E}^{2}}$ функцию $G(\Lambda ) = v{{\lambda }_{1}} + 6{{\lambda }_{2}},$
при условиях ${{\lambda }_{1}} \geqslant 0,$ ${{\lambda }_{2}} \geqslant 0$ и ${{\lambda }_{1}} + 2{{\lambda }_{2}} \geqslant 2,$ $2{{\lambda }_{1}} + {{\lambda }_{2}} \geqslant 3.$
Пусть значение $v = 6,$ тогда решения имеют вид $\xi _{1}^{*} = 2,$ $\xi _{2}^{*} = 2,$ $F{\kern 1pt} * = 10$ и $\lambda _{1}^{*} = \tfrac{4}{3},$ $\lambda _{2}^{*} = \tfrac{1}{3},$ $G{\kern 1pt} * = 10.$
Если использовать $P(\tau ,s) = \tau exp\left( {\tfrac{s}{\tau }} \right)$ и соответствующую ей $Q(\tau ,s) = {\text{inv}}\left( {exp\left( {\tfrac{s}{\tau }} \right)} \right) = \tau lns,$ то система (2.7) будет иметь вид
(2.8)
$\begin{gathered} - 6 + {{{\bar {\xi }}}_{1}} + 2{{{\bar {\xi }}}_{2}} = \tau ln{{{\bar {\lambda }}}_{1}}, \\ - 6 + 2{{{\bar {\xi }}}_{1}} + {{{\bar {\xi }}}_{2}} = \tau ln{{{\bar {\lambda }}}_{2}}, \\ - 2 + {{{\bar {\lambda }}}_{1}} + 2{{{\bar {\lambda }}}_{2}} = - \tau ln{{{\bar {\xi }}}_{1}}, \\ - 3 + 2{{{\bar {\lambda }}}_{1}} + {{{\bar {\lambda }}}_{2}} = - \tau ln{{{\bar {\xi }}}_{2}}, \\ \end{gathered} $Таблица 1.
τ | ${{\bar {\xi }}_{1}}(\tau )$ | ${{\bar {\xi }}_{2}}(\tau )$ | $F(\bar {x}(\tau ))$ | ${{\bar {\lambda }}_{1}}(\tau )$ | ${{\bar {\lambda }}_{2}}(\tau )$ | $G(\bar {\Lambda }(\tau ))$ |
---|---|---|---|---|---|---|
10–1 | 1.91387303 | 2.05644660 | 9.99708585 | 1.30690566 | 0.31409072 | 9.72597830 |
10–2 | 1.99167722 | 2.00559101 | 10.0001275 | 1.33099033 | 0.33105995 | 9.97230168 |
10–3 | 1.99917130 | 2.00055811 | 10.0000169 | 1.33310196 | 0.33310265 | 9.99722768 |
10–4 | 1.99991717 | 2.00005580 | 10.0000017 | 1.33331023 | 0.33331023 | 9.99972274 |
10–5 | 1.99999172 | 2.00000558 | 10.0000002 | 1.33333102 | 0.33333102 | 9.99997227 |
10–6 | 1.99999917 | 2.00000056 | 10.0000000 | 1.33333310 | 0.33333102 | 9.99999723 |
В последующих разделах статьи рассматриваются условия применимости методов, основанных на решении систем подобных (2.7). Здесь же отметим, что из структуры этой системы следует, что $Q(\tau ,s)$ по сути является функцией, реализующей обратную связь в наборе ограничений для прямых и двойственных переменных в задачах (2.1) и (2.2). Поэтому далее (для краткости) будет употребляться термин обратная связь при ссылках как на сами функции типа $Q(\tau ,s),$ так и на методы решения задачи (1.1), (1.2), использующих эти функции.
3. ОБОСНОВАНИЕ МЕТОДА ОБРАТНЫХ СВЯЗЕЙ ДЛЯ ЗАДАЧ ЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ
Определим функцию $P(\tau ,s)$ так, чтобы для нее выполнялись все условия пп. 1–3 из (2.4). Тогда непрерывно дифференцируемая функция $\tfrac{{\partial P}}{{\partial s}}$ монотонно возрастает по $s$ $\forall s$ и имеет непрерывно дифференцируемую обратную функцию $Q(\tau ,s),$ которая, в свою очередь, монотонно возрастает по $s$ $\forall s > 0.$ Кроме того, для нее имеем $\mathop {lim}\limits_{s \to + 0} Q(\tau ,s) = - \infty $ $\forall \tau > 0$, $\mathop {lim}\limits_{s \to + \infty } Q(\tau ,s) = + \infty $ $\forall \tau > 0$ и $\mathop {lim}\limits_{\tau \to + 0} Q(\tau ,s) = 0$ $\forall s > 0$.
Через $R(\tau ,s)$ обозначим неотрицательную, имеющую единственный ноль функцию, для которой справедливо равенство
Заметим, что в сделанных предположениях функция $R(\tau ,s)$ существует и единственна.Введем в рассмотрение вспомогательную (называемую далее для краткости $U$-функцией) функцию вида
(3.2)
$U(\tau ,x,\Lambda ) = \sum\limits_{j = 1}^n \,({{\sigma }_{j}}{{\xi }_{j}} - R(\tau ,{{\xi }_{j}})) + \sum\limits_{i = 1}^m \,({{\beta }_{i}}{{\lambda }_{i}} + R(\tau ,{{\lambda }_{i}})) - \sum\limits_{j = 1}^n \sum\limits_{i = 1}^m \,{{\alpha }_{{ij}}}{{\xi }_{j}}{{\lambda }_{i}}.$Теорема 3.1. Функция $U(\tau ,x,\Lambda )$ строго выпукла вверх по $x$ и строго выпукла вниз по $\Lambda $ в любой конечной точке с положительными координатами в пространстве ${{E}^{n}} \otimes {{E}^{m}}$ $\forall \tau > 0$.
Доказательство. Из соотношений (3.2) и (2.7) находим, что компоненты матрицы Гессе для $U(\tau ,x,\Lambda )$ (как функции от $x$ при фиксированных $\tau $ и $\Lambda $) имеют вид
Числа $\tfrac{{\partial Q}}{{\partial {{\xi }_{j}}}}$ положительные, так как в силу соотношения между производными взаимно обратных функций и условия п. 3 из (2.4)
(3.3)
$\tfrac{{\partial Q}}{{\partial s}}\mathop {\left( {\tfrac{{{{\partial }^{2}}P}}{{\partial {{s}^{2}}}}} \right)}\nolimits^{ - 1} > 0.$Таким образом, в рассматриваемой подматрице Гессе все главные миноры нечетного порядка отрицательны, четного – положительны, и, согласно критерию Сильвестра, матрица Гессе функции $U(\tau ,x,\Lambda )$ по компонентам $x$ отрицательно определена. Поэтому функция $U(\tau ,x,\Lambda )$ по компонентам $x$ строго выпукла вверх.
Рассуждая аналогично, для подматрицы Гессе функции $U(\tau ,x,\Lambda )$ по компонентам $\Lambda $ получаем, что значения ее главных миноров равны $\prod\nolimits_{i = 1}^k {\tfrac{{\partial Q}}{{\partial {{\lambda }_{i}}}}} $ $\forall k = [1,m]$. В силу (3.3) эти значения положительны. Тогда, согласно критерию Сильвестра, подматрица Гессе функции $U(\tau ,x,\Lambda )$ по компонентам $\Lambda $ положительно определена, а сама функция $U(\tau ,x,\Lambda )$ по компонентам $\Lambda $ является строго выпуклой вниз при любых фиксированных $\tau $ и $x$.
Докажем теперь совместность системы (2.7).
Теорема 3.2. Система уравнений (2.7) имеет единственное решение с положительными компонентами при любом фиксированном $\tau > 0$ для любой пары задач (2.1), (2.2).
Доказательство. 1. Для каждого вектора $\Lambda $ с конечными положительными компонентами существует единственный конечный вектор $\hat {x}(\Lambda )$ с положительными компонентами такой, что верно равенство $\mathop {{\text{grad}}}\limits_x \,U(\tau ,\hat {x}(\Lambda ),\Lambda ) = 0,$ имеющее в силу (3.2) вид
(3.4)
$Q(\tau ,{{\hat {\xi }}_{j}}(\Lambda )) - {{\sigma }_{j}} + \sum\limits_{i = 1}^m \,{{\alpha }_{{ij}}}{{\lambda }_{i}} = 0\quad \forall j = [1,n],$Рассуждая аналогично, заключаем, что для каждого конечного вектора $x$ с положительными компонентами будет существовать конечный вектор $\hat {\Lambda }(x)$ с положительными компонентами такой, что
(3.5)
$Q(\tau ,{{\hat {\lambda }}_{i}}(x)) + {{\beta }_{i}} - \sum\limits_{j = 1}^n \,{{\alpha }_{{ij}}}{{\xi }_{j}} = 0\quad \forall i = [1,m]$2. Теперь найдем минимум $U(\tau ,\hat {x}(\Lambda ),\Lambda )$ по $\Lambda .$ Из формулы (3.2) мы получаем
В силу строгой выпуклости вниз этой функции, достаточное условие ее минимума будет
(3.6)
$\sum\limits_{j = 1}^n \,\frac{{\partial {{{\hat {\xi }}}_{j}}(\Lambda )}}{{\partial {{\lambda }_{q}}}}\left[ {{{\sigma }_{j}} - Q(\tau ,{{{\hat {\xi }}}_{j}}(\Lambda )) - \sum\limits_{i = 1}^m \,{{\alpha }_{{ij}}}{{\lambda }_{i}}} \right] + {{\beta }_{q}} + Q(\tau ,{{\lambda }_{q}}) - \sum\limits_{j = 1}^n \,{{\alpha }_{{qj}}}{{\hat {\xi }}_{j}}(\Lambda ) = 0\quad \forall q = [1,m],$Тогда, за счет использования (3.4), равенство (3.6) – достаточное условие минимума функции $U(\tau ,\hat {x}(\Lambda ),\Lambda )$ по $\Lambda $ – может быть упрощено до
(3.7)
${{\beta }_{q}} + Q(\tau ,{{\hat {\hat {\lambda }}}_{q}}) - \sum\limits_{j = 1}^n \,{{\alpha }_{{qj}}}\mathop {\widehat \xi }\nolimits_j (\hat {\hat {\Lambda }}) = 0\quad \forall q = [1,m],$Найдем теперь значение минимума по $\Lambda $ для функции $U(\tau ,\hat {x}(\Lambda ),\Lambda ).$ Имеем
(3.8)
$U(\tau ,\hat {x}(\hat {\hat {\Lambda }}),\hat {\hat {\Lambda }})\mathop {min}\limits_\Lambda \mathop {max}\limits_x U(\tau ,x,\Lambda )\sum\limits_{i = 1}^m ({{\beta }_{i}}{{\hat {\hat {\lambda }}}_{i}} + R(\tau ,{{\hat {\hat {\lambda }}}_{i}})) + \sum\limits_{j = 1}^n ({{\hat {\xi }}_{j}}(\hat {\hat {\Lambda }})Q(\tau ,{{\hat {\xi }}_{j}}(\hat {\hat {\Lambda }})) - R(\tau ,{{\hat {\xi }}_{j}}(\hat {\hat {\Lambda }})).$3. Теперь рассуждениями, аналогичными п. 2, найдем $\mathop {max}\limits_x \mathop {min}\limits_\Lambda U(\tau ,x,\Lambda ).$
Поскольку функция $U(\tau ,x,\Lambda )$ строго выпукла вниз по совокупности компонент вектора $\Lambda ,$ то достаточное условие ее минимума по $\Lambda $ будет
(3.9)
$ - Q(\tau ,{{\hat {\lambda }}_{i}}(x)) = {{\beta }_{i}} - \sum\limits_{j = 1}^n \,{{\alpha }_{{ij}}}{{\xi }_{j}}\quad \forall i = [1,m].$В силу строгой выпуклости вверх этой функции по $x$, достаточное условие ее максимума по $x$ (после перегруппировки слагаемых) есть
(3.10)
$\sum\limits_{i = 1}^m \,\frac{{\partial {{{\hat {\lambda }}}_{i}}(x)}}{{\partial {{\xi }_{k}}}}\left[ {{{\beta }_{i}} + Q(\tau ,{{{\hat {\lambda }}}_{i}}(x)) - \sum\limits_{j = 1}^n \,{{\alpha }_{{ij}}}{{\xi }_{j}}} \right] + {{\sigma }_{k}} - Q(\tau ,{{\xi }_{k}}) - \sum\limits_{i = 1}^m \,{{\alpha }_{{ik}}}{{\hat {\lambda }}_{i}}(x) = 0\quad \forall k = [1,n].$Выражения, стоящие в квадратных скобках в (3.10), равны нулю в силу (3.9) и, следовательно, достаточное условие максимума $U(\tau ,x,\hat {\Lambda }(x))$ по $x$ принимает вид
(3.11)
${{\sigma }_{k}} - Q(\tau ,{{\hat {\hat {\xi }}}_{k}}) - \sum\limits_{i = 1}^m \,{{\alpha }_{{ik}}}{{\hat {\lambda }}_{i}}({{\hat {\hat {\xi }}}_{k}}) = 0\quad \forall k = [1,n],$Для значения максимума функции $U(\tau ,x,\hat {\Lambda }(x))$ по $x$ (после перегруппировки слагаемых и учета (3.11) в итоге имеем
(3.12)
$U(\tau ,\hat {\hat {x}},\hat {\Lambda }(\hat {\hat {x}}))\mathop {max}\limits_x \mathop {min}\limits_\Lambda U(\tau ,x,\Lambda )\sum\limits_{i = 1}^m \,({{\beta }_{i}}{{\hat {\lambda }}_{i}}(\hat {\hat {x}}) + R(\tau ,{{\hat {\lambda }}_{i}}(\hat {\hat {x}}))) + \sum\limits_{j = 1}^n \,({{\hat {\hat {\xi }}}_{j}}Q(\tau ,{{\hat {\hat {\xi }}}_{j}}) - R(\tau ,{{\hat {\hat {\xi }}}_{j}})).$4. Теперь заметим, что из условий (3.7) и (3.9) следует равенство $\hat {\hat {\Lambda }} = \hat {\Lambda }(\hat {\hat {x}}),$ а из условий (3.4) и (3.11) следует соответственно $\hat {\hat {x}} = \hat {x}(\hat {\hat {\Lambda }}),$ поскольку условие (3.7) является достаточным условием максимума функции $U(\tau ,x,\widehat \Lambda (x))$ по $x,$ а условие (3.11) – соответственно достаточным условием минимума функции $U(\tau ,\hat {x}(\Lambda ),\Lambda )$ по $\Lambda .$
Поясним эти утверждения, получив, к примеру, формулу $\hat {\hat {x}} = \hat {x}(\hat {\hat {\Lambda }}).$ Для этого перепишем равенства (3.4) и (3.11), переобозначив в последнем индекс $k$ на $j$.
(3.13)
$\begin{gathered} - Q(\tau ,\mathop {\widehat \xi }\nolimits_j (\Lambda )) = - {{\sigma }_{j}} + \sum\limits_{i = 1}^m \,{{\alpha }_{{ij}}}{{\lambda }_{i}}\quad \forall j = [1,n], \\ - Q(\tau ,\mathop {\widehat {\widehat \xi }}\nolimits_j ) = - {{\sigma }_{j}} + \sum\limits_{i = 1}^m \,{{\alpha }_{{ij}}}\mathop {\widehat \lambda }\nolimits_i (\mathop {\widehat {\widehat \xi }}\nolimits_j )\quad \forall j = [1,n]. \\ \end{gathered} $Из сопоставления формул (3.8) и (3.12) получаем, что
В дальнейшем (если не оговорено противное) мы будем предполагать, что функция $P(\tau ,s)$ не только удовлетворяет условиям (2.4), но и что $\tfrac{{\partial P}}{{\partial s}}(\tau ,s)$ является функцией одного аргумента $u = \tfrac{s}{\tau },$ т.е.
где $\Phi (u)$ – определенная $\forall u$ функция, обеспечивающая выполнение условий (2.4).Условие (3.14) формально является дополнительным ограничением общности при выборе вида функции $P(\tau ,s),$ не играющим существенного практического значения в силу инструментальной роли самой функции $P(\tau ,s),$ однако, позволяющим не только упростить обоснование метода обратных связей, но и, как показано в [5], улучшить характеристики его сходимости при $\tau \to + 0.$
Рассмотрим теперь свойства функции $R(\tau ,s).$ Эта функция очевидно определена при любых положительных $\tau $ и $s,$ в своей области определения неотрицательна и имеет единственный ноль, а также дважды непрерывно дифференцируема и строго выпукла вниз по $s$ на $s > 0.$ Кроме того, важное для дальнейшего свойство функции $R(\tau ,s)$ описывает
Теорема 3.3. Для любого фиксированного $s \in (0, + \infty )$ имеем $\mathop {lim}\limits_{\tau \to + 0} R(\tau ,s) = 0$.
Доказательство. В силу (3.14) функция обратной связи $Q(\tau ,s)$ определяется соотношением $\Phi \left( {\tfrac{Q}{\tau }} \right) = s$ и имеет вид $Q(\tau ,s) = \tau \Psi (s),$ где $\Psi (u)$ есть функция, определенная на интервале $(0, + \infty ),$ обратная к $\Phi (u).$
Тогда при любом конечном положительном $s$ из
Другое полезное свойство $U$-функции описывает
Теорема 3.4. Если $L(x,\Lambda )$ – функция Лагранжа пары задач (2.1) и (2.2), то $\forall x$ и $\forall \Lambda $ из области определения $L(x,\Lambda )$
Доказательство. Функция Лагранжа задач (2.1) и (2.2) имеет вид
(3.16)
$U(\tau ,x,\Lambda ) = L(x,\Lambda ) - \sum\limits_{j = 1}^n \,R(\tau ,{{\xi }_{j}}) + \sum\limits_{i = 1}^m \,R(\tau ,{{\lambda }_{i}}).$Дадим следующее
Определение. Совокупность точек пространства ${{E}^{n}} \otimes {{E}^{m}}$ вида $\{ \bar {x}(\tau );\bar {\Lambda }(\tau )\} $ $\forall \tau > 0$ – назовем седловой траекторией $U$-функции пары задач (2.1) и (2.2).
Из теоремы 3.2 следует, что на каждой седловой траектории определены вектор-функции $\bar {x}(\tau ),$ $\bar {\Lambda }(\tau )$, а также скалярная функция $\bar {U}(\tau ) = U(\tau ,\bar {x}(\tau ),\bar {\Lambda }(\tau ))$. Рассмотрим их свойства.
Теорема 3.5. Для собственных задач (2.1) и (2.2), т.е. задач, имеющих ограниченные оптимальные значения целевых функций, вектор-функции $\bar {x}(\tau )$ и $\bar {\Lambda }(\tau )$ имеют ограниченные компоненты на множестве $\forall \tau > 0.$
Доказательство. 1. Исходя из (2.6) и использовав (2.1)–(2.2), условия стационарности вспомогательной $U$-функции (3.2) можно записать в виде
(3.17)
$\begin{gathered} {{{\bar {\lambda }}}_{i}}(\tau ) = \frac{{\partial P}}{{\partial s}}\left( {\tau , - {{\beta }_{i}} + \sum\limits_{j = 1}^n \,{{\alpha }_{{ij}}}\frac{{\partial P}}{{\partial s}}\left( {\tau ,{{\sigma }_{j}} - \sum\limits_{q = 1}^m \,{{\alpha }_{{qj}}}{{{\bar {\lambda }}}_{q}}(\tau )} \right)} \right)\quad \forall i = [1,m], \\ {{{\bar {\xi }}}_{j}}(\tau ) = \frac{{\partial P}}{{\partial s}}\left( {\tau ,{{\sigma }_{j}} - \sum\limits_{i = 1}^m \,{{\alpha }_{{ij}}}\frac{{\partial P}}{{\partial s}}\left( {\tau , - {{\beta }_{i}} + \sum\limits_{p = 1}^n \,{{\alpha }_{{ip}}}{{{\bar {\xi }}}_{p}}(\tau )} \right)} \right)\quad \forall j = [1,n], \\ \end{gathered} $Исследуем подробно вторую из них, введя для удобства следующие скалярные функции:
(3.18)
${{\bar {\xi }}_{j}}(\tau ) = \frac{{\partial P}}{{\partial s}}(\tau ,{{W}_{j}}(\tau ,\bar {x}(\tau )))\quad \forall j = [1,n],$Таким образом, правая часть $j$-го уравнения в системе (3.18) есть монотонно убывающая функция k-й компоненты вектора $\bar {x}(\tau )$.
2. Рассмотрим теперь $j$-е уравнение в системе (3.18), в котором зафиксированы все неизвестные, кроме ${{\bar {\xi }}_{j}}$. Пусть оно имеет вид ${{\bar {\xi }}_{j}} = Z({{\bar {\xi }}_{j}})$. Заметим, что как область определения функции $Z({{\bar {\xi }}_{j}})$, так и область ее значений есть множество положительных чисел. При этом из п. 1 следует, что на всей области определения непрерывная функция $Z({{\bar {\xi }}_{j}})$ монотонно убывающая. Тогда для нее существует монотонно убывающая обратная функция $T({{\bar {\xi }}_{j}})$.
Пусть $\bar {\xi }_{j}^{*}$ – решение рассматриваемого уравнения, т.е. $\bar {\xi }_{j}^{*} = Z(\bar {\xi }_{j}^{*})$. Очевидно, что и $T(\bar {\xi }_{j}^{*}) = \bar {\xi }_{j}^{*}$. Если $\bar {\xi }_{j}^{*}$ ограничено сверху, то $\exists + \infty > {{D}_{j}} > 0:\;\;\bar {\xi }_{j}^{*} \leqslant {{D}_{j}},$ а значит, и $\bar {\xi }_{j}^{*} = T(\bar {\xi }_{j}^{*}) = Z(\bar {\xi }_{j}^{*}) \leqslant {{D}_{j}}.$ Тогда в силу монотонного убывания функции $T({{\bar {\xi }}_{j}})$ получаем $T(Z(\bar {\xi }_{j}^{*})) \geqslant T({{D}_{j}}).$ Иначе говоря, $\exists {{d}_{j}} > 0:\;\;{{d}_{j}} \leqslant \bar {\xi }_{j}^{*},$ где ${{d}_{j}} = T({{D}_{j}}) \leqslant {{D}_{j}}.$ Следовательно, $\bar {\xi }_{j}^{*}$ ограничена и снизу, причем строго положительной величиной.
Аналогичными рассуждениями можно показать, что из ограниченности снизу компоненты $\bar {\xi }_{j}^{*}$ следует ее ограниченность и сверху.
3. Покажем теперь, что в собственном случае решения системы (3.17) ограничены $\forall \tau > 0$ и имеют неограниченные компоненты в случае несобственном.
Действительно, если решения задач (2.1), (2.2) существуют и конечны, то системы
(3.19)
$\begin{array}{*{20}{c}} {{{\sigma }_{j}} - \sum\limits_{i = 1}^m \,{{\alpha }_{{ij}}}{{\lambda }_{i}} \leqslant 0\quad \forall j = [1,n],} \\ {{{\lambda }_{i}} \geqslant 0\quad \forall i = [1,m]} \end{array}\quad {\text{и}}\quad \begin{array}{*{20}{c}} { - {{\beta }_{i}} + \sum\limits_{j = 1}^n \,{{\alpha }_{{ij}}}{{\xi }_{j}} \leqslant 0\quad \forall i = [1,m],} \\ {{{\xi }_{j}} \geqslant 0\quad \forall j = [1,n]} \end{array}$Рассмотрим вторую из них. В этом случае для каждого $j = [1,n]$ найдется вектор ${{x}_{{(j)}}}$ такой, что ${{W}_{j}}(\tau ,{{x}_{{(j)}}}) = 0.$ Заметим, что каждая левая часть в уравнениях (3.18), которая по теореме 3.2 имеет конечное значение при любом фиксированном $\tau > 0,$ может оказаться равной, большей или меньшей, чем $\Phi (0) = \tfrac{{\partial P}}{{\partial s}}(\tau ,0).$ Тогда в силу оценок п. 2, она оказывается ограниченной как снизу, так и сверху одним из трех строго положительных чисел $T(\Phi (0)),\Phi (0)$ или $D(\Phi (0)),$ каждое из которых по предположению (3.14) не зависит от $\tau .$ Следовательно, все левые части в (3.18) равномерно ограничены на множестве значений $\tau \in (0, + \infty ).$
Для первой из систем (3.19) рассуждения аналогичны.
В несобственном же случае по крайней мере одна из систем (3.19) несовместна. Допустим, что это – вторая из них. Тогда хотя бы при одном значении индекса $i$ будет ${{f}_{i}}(x) > 0$ при всех $x$ с неотрицательными компонентами. В том числе и для $\bar {x}(\tau )$ – решение системы (3.18), которое существует по теореме 3.2.
Но тогда в силу
В случае несовместности первой из систем (3.19) рассуждения аналогичны.
Теорема 3.6. Для собственных задач (2.1) и (2.2) вектор-функции $\bar {x}(\tau )$ и $\bar {\Lambda }(\tau )$ непрерывно дифференцируемы $\forall \tau > 0$.
Доказательство. 1. Введем следующие обозначения:
Здесь элементами матрицы $\left\| A \right\|$ являются числа ${{\alpha }_{{ij}}}$ $\forall i = [1,m],$ $j = [1,n],$ а диагональные матрицы $\left\| X \right\|$ и $\left\| Y \right\|$ имеют элементы, определяемые формулами ${{\delta }_{{ij}}}{{\kappa }_{j}}$ $\forall i,j = [1,n]$ и ${{\delta }_{{ij}}}{{\mu }_{i}}$ $\forall i,j = [1,m]$ соответственно.
Оценим знак величины $det\left\| H \right\|$. По свойству шуровского дополнения (см., например, гл. 4, § 6, п. 5 в [6]) и в силу правил действия с матрицами, в рассматриваемом случае справедливо равенство
Оценим теперь второй сомножитель: $det(\left\| Y \right\| + \left\| A \right\|{{\left\| X \right\|}^{{ - 1}}}{{\left\| A \right\|}^{{\text{T}}}}).$ Заметим, что матрицу $\left\| Y \right\|$ можно рассматривать как матрицу некоторой положительно определенной квадратичной формы в пространстве ${{E}^{m}},$ в то время как матрица $\left\| A \right\|{{\left\| X \right\|}^{{ - 1}}}{{\left\| A \right\|}^{{\text{T}}}}$ (при любом значении ранга матрицы $\left\| A \right\|$) по следствию теоремы Бине–Коши (см. гл. 4, § 5, п. 6 в [6]) задает либо положительно определенную, либо положительно полуопределенную квадратичную форму в том же пространстве.
Ясно, что в этом случае матрица $(\left\| Y \right\| + \left\| A \right\|{{\left\| X \right\|}^{{ - 1}}}{{\left\| A \right\|}^{{\text{T}}}})$ также задает в ${{E}^{m}}$ положительно-определенную квадратичную форму и имеет (в силу критерия Сильвестра) положительный детерминант. Поэтому окончательно мы получаем, что $det\left\| H \right\| > 0.$
2. Невырожденность матрицы Якоби для системы уравнений (2.7) в сочетании со сделанными предположениями о гладкости функции $Q(\tau ,s)$ допускает применение утверждений теоремы о неявных функциях [2] к этой системе. Отсюда следует непрерывность вектор-функций $\bar {x}(\tau )$ и $\bar {\Lambda }(\tau )$.
При этом компоненты вектор-функций $\tfrac{{d\bar {x}}}{{d\tau }}$ и $\tfrac{{d\bar {\Lambda }}}{{d\tau }}$ определяются $\forall \tau > 0$ системой линейных уравнений
(3.20)
$\left\| {\begin{array}{*{20}{c}} { - \left\| X \right\|}&{ - {{{\left\| A \right\|}}^{{\text{T}}}}} \\ { - \left\| A \right\|}&{\left\| Y \right\|} \end{array}} \right\|\left\| {\begin{array}{*{20}{c}} {\left\| {\tfrac{{d\bar {x}}}{{d\tau }}} \right\|} \\ {\left\| {\tfrac{{d\bar {\Lambda }}}{{d\tau }}} \right\|} \end{array}} \right\| = - \left\| {\begin{array}{*{20}{c}} {\left\| {\tfrac{{{{\partial }^{2}}U}}{{\partial x\partial \tau }}} \right\|} \\ {\left\| {\tfrac{{{{\partial }^{2}}U}}{{\partial \Lambda \partial \tau }}} \right\|} \end{array}} \right\|,$Следствие 3.1. На седловой траектории для собственной пары задач (2.1) и (2.2) существуют конечные пределы $\mathop {lim}\limits_{\tau \to + 0} \bar {x}(\tau )$, $\mathop {lim}\limits_{\tau \to + 0} \bar {\Lambda }(\tau )$ и $\mathop {lim}\limits_{\tau \to + 0} U(\tau ,\bar {x}(\tau ),\bar {\Lambda }(\tau ))$.
Доказательство. Из непрерывной дифференцируемости и ограниченности вектор-функций $\bar {x}(\tau )$ и $\bar {\Lambda }(\tau )\forall \tau > 0$ в собственном случае следует их равномерная непрерывность на этом множестве. Поэтому пределы, указанные в формулировке следствия, существуют и конечны.
Свойства этих пределов описывают следующие теоремы.
Теорема 3.7. На седловой траектории для собственной пары задач (2.1) и (2.2), имеют место равенства
Доказательство. 1. Заметим вначале, что для конечных $s > 0$ в силу (3.14) имеет место равенство
Умножая обе части равенств (2.7) на ${{\bar {\lambda }}_{i}}$ $\forall i = [1,m]$ и ${{\bar {\xi }}_{j}}$ $\forall j = [1,n]$ соответственно, приходим к соотношениям
2. Из условий стационарности $U$-функции следуют равенства
Почленное вычитание двух последних равенств дает
Теорема 3.8. На седловых траекториях для собственных задач (2.1) и (2.2) имеем
(3.21)
$\mathop {lim}\limits_{\tau \to + 0} U(\tau ,\bar {x}(\tau ),\bar {\Lambda }(\tau )) = F(x{\kern 1pt} {\text{*}}) = G(\Lambda {\kern 1pt} {\text{*}}),$(3.22)
$\mathop {lim}\limits_{\tau \to + 0} \bar {x}(\tau ) = x{\kern 1pt} {\text{*}}\quad и\quad \mathop {lim}\limits_{\tau \to + 0} \bar {\Lambda }(\tau ) = \Lambda {\kern 1pt} {\text{*}}.$Доказательство. На седловой траектории в силу (3.16)
(3.23)
$U(\tau ,\bar {x}(\tau ),\bar {\Lambda }(\tau )) \leqslant L(\bar {x}(\tau ),\bar {\Lambda }(\tau )) + \sum\limits_{i = 1}^m \,R(\tau ,{{\bar {\lambda }}_{i}}(\tau )) \leqslant G{\kern 1pt} {\text{*}} + m\mathop {{\text{max}}}\limits_{i = [1,m]} \,R(\tau ,{{\bar {\lambda }}_{i}}(\tau ))$(3.24)
$U(\tau ,\bar {x}(\tau ),\bar {\Lambda }(\tau )) \geqslant L(\bar {x}(\tau ),\bar {\Lambda }(\tau )) - \sum\limits_{j = 1}^n \,R(\tau ,{{\bar {\xi }}_{j}}(\tau )) \geqslant F{\kern 1pt} {\text{*}} - n\mathop {{\text{max}}}\limits_{j = [1,n]} \,R(\tau ,{{\bar {\xi }}_{j}}(\tau )).$Для собственных задач в силу теоремы 3.5 значения всех компонент вектор-функций $\bar {x}(\tau )$ и $\bar {\Lambda }(\tau )$ ограничены на седловой траектории. Тогда из следствия 3.1 и теоремы 3.3 вытекает, что
(3.25)
$\mathop {lim}\limits_{\tau \to + 0} U(\tau ,\bar {x}(\tau ),\bar {\Lambda }(\tau )) = F{\kern 1pt} {\text{*}} = G{\kern 1pt} {\text{*}}\quad {\text{и}}\quad \mathop {lim}\limits_{\tau \to + 0} L(\bar {x}(\tau ),\bar {\Lambda }(\tau )) = F{\kern 1pt} {\text{*}} = G{\kern 1pt} {\text{*}}.$В сделанных выше предположениях вектор-функции $\bar {x}(\tau )$ и $\bar {\Lambda }(\tau )$ непрерывны $\forall \tau > 0.$ Тогда из непрерывности $L(x,\Lambda ),$ неравенств (3.23), (3.24) и свойств суперпозиции непрерывных функций получаем
Наконец, в регулярном случае функция Лагранжа задач (2.1) и (2.2) имеет единственную седловую точку $\{ x{\kern 1pt} {\text{*}},\Lambda {\kern 1pt} {\text{*}}\} ,$ поэтому тогда справедливы и равенства (3.22).
В завершение описания свойств $U$-функции для линейных задач заметим, что единственность седловой точки $U$-функции позволяет рассматривать ее представление в виде суммы функции Лагранжа и слагаемого
как метод регуляризации собственных (но нерегулярных) задач, а саму U-функцию как вариант модифицированной функции Лагранжа. Существенно, что неотрицательность оценок множителей Лагранжа гарантирована условиями (2.4).Наконец, отметим, что использование функций обратных связей возможно и для решения нелинейных задач. Обсуждение различных аспектов этого использования и примеры задач можно найти в [7].
Проиллюстрируем утверждения теорем 3.5–3.8 следующими вариантами примера 1.
Примером 1 со значением параметра $v = 3$, решение которого: $\xi _{1}^{*} = 3$, $\xi _{2}^{*} = 0$, $F{\kern 1pt} {\text{*}} = 6$ и $\lambda _{1}^{*} = 2 - 2t$, $\lambda _{2}^{*} = t$ $\forall t \in \left[ {0,\;\tfrac{1}{3}} \right]$, $G{\kern 1pt} {\text{*}} = 6$. Решение прямой задачи единственное и переопределенное (т.е. в точке решения число активных ограничений больше числа переменных), а решение двойственной задачи неединственное.
И примером 1 со значением параметра $v = - 3$, в котором прямая задача несовместна, а двойственная имеет неограниченное решение.
При решении задач (как альтернативу системе (2.8)) в качестве $P(\tau ,s)$ выберем функцию, для которой $\tfrac{{\partial P}}{{\partial s}} = \tfrac{s}{\tau } + \sqrt {\mathop {\left( {\tfrac{s}{\tau }} \right)}\nolimits^2 + 1} $ и соответственно $Q(\tau ,s) = \tfrac{\tau }{2}\left( {s - \tfrac{1}{s}} \right)$.
Заметим, что при таком выборе $P(\tau ,s)$ является бесконечно дифференцируемой аппроксимацией стандартной квадратичной штрафной функции, поскольку $\tfrac{s}{\tau } + \sqrt {\mathop {\left( {\tfrac{s}{\tau }} \right)}\nolimits^2 + 1} \sim \tfrac{{s + \left| s \right|}}{\tau }$ для малых положительных $\tau $. В этом случае система (2.8) принимает вид
(3.26)
$\begin{gathered} - 3 + {{{\bar {\xi }}}_{1}} + 2{{{\bar {\xi }}}_{2}} = \frac{\tau }{2}\left( {{{{\bar {\lambda }}}_{1}} - \frac{1}{{{{{\bar {\lambda }}}_{1}}}}} \right), \\ - 6 + 2{{{\bar {\xi }}}_{1}} + {{{\bar {\xi }}}_{2}} = \frac{\tau }{2}\left( {{{{\bar {\lambda }}}_{2}} - \frac{1}{{{{{\bar {\lambda }}}_{2}}}}} \right), \\ - 2 + {{{\bar {\lambda }}}_{1}} + 2{{{\bar {\lambda }}}_{2}} = - \frac{\tau }{2}\left( {{{{\bar {\xi }}}_{1}} - \frac{1}{{{{{\bar {\xi }}}_{1}}}}} \right), \\ - 3 + 2{{{\bar {\lambda }}}_{1}} + {{{\bar {\lambda }}}_{2}} = - \frac{\tau }{2}\left( {{{{\bar {\xi }}}_{2}} - \frac{1}{{{{{\bar {\xi }}}_{2}}}}} \right). \\ \end{gathered} $Решения системы (3.26) для различных значений параметра $\tau $ приведены в табл. 2 и 3, а их графические представления с логарифмической шкалой аргумента показаны на фиг. 1. При этом в таблицах использованы обозначения: $\bar {F}(\tau ) = F({{\bar {\xi }}_{1}}(\tau ),{{\bar {\xi }}_{2}}(\tau ))$, $\bar {G}(\tau ) = G({{\bar {\lambda }}_{1}}(\tau ),{{\bar {\lambda }}_{2}}(\tau ))$ и ${{\bar {g}}_{1}}(\tau ) = {{g}_{1}}({{\bar {\lambda }}_{1}}(\tau ),{{\bar {\lambda }}_{2}}(\tau ))$.
Таблица 2.
τ | ${{\bar {\xi }}_{1}}(\tau )$ | ${{\bar {\xi }}_{2}}(\tau )$ | $F(\bar {x}(\tau ))$ | ${{\bar {\lambda }}_{1}}(\tau )$ | ${{\bar {\lambda }}_{2}}(\tau )$ | $G(\bar {\Lambda }(\tau ))$ | ${{g}_{1}}(\bar {\Lambda }(\tau ))$ |
---|---|---|---|---|---|---|---|
10–1 | 2.754765504 | 0.146829492 | 5.950019486 | 1.595322348 | 0.142544871 | 5.641236270 | –0.119587910 |
10–2 | 2.980995393 | 0.011993961 | 5.997972668 | 1.615620231 | 0.185576042 | 5.960316945 | –0.013227685 |
10–3 | 2.998148668 | 1.1754 × 10–3 | 5.999823636 | 1.617360455 | 0.190653620 | 5.996003086 | –1.3323 × 10–3 |
10–4 | 2.999815350 | 1.1731 × 10–4 | 5.999823636 | 1.617531210 | 0.191167734 | 5.999600031 | –1.3332 × 10–4 |
10–5 | 2.999981540 | 1.1728 × 10–5 | 5.999998265 | 1.617548252 | 0.191167734 | 5.999960000 | –1.3333 × 10–5 |
10–6 | 2.999998154 | 1.1728 × 10–6 | 5.999999827 | 1.617549956 | 0.191224355 | 5.999996000 | –1.3333 × 10–6 |
Таблица 3.
τ | ${{\bar {\xi }}_{1}}(\tau )$ | ${{\bar {\xi }}_{2}}(\tau )$ | $F(\bar {x}(\tau ))$ | ${{\bar {\lambda }}_{1}}(\tau )$ | ${{\bar {\lambda }}_{2}}(\tau )$ | $G(\bar {\Lambda }(\tau ))$ | $\bar {F}(x) - \bar {G}(\Lambda )$ |
---|---|---|---|---|---|---|---|
103 | 0.999000478 | 0.999990964 | 4.997973847 | 1.006016976 | 0.997002498 | 2.963964059 | 2.034009788 |
102 | 0.990028539 | 0.999064507 | 4.977250598 | 1.061672873 | 0.970247397 | 2.636465765 | 2.340784833 |
10 | 0.890763029 | 0.891130932 | 4.454918853 | 1.717012067 | 0.721168975 | –0.824022353 | 5.278941206 |
1 | 0.104551523 | 0.048898425 | 0.355798321 | 6.557200845 | 0.086427254 | –19.153039010 | 19.508837331 |
10–1 | 8.6106 × 10–4 | 4.2695 × 10–4 | 3.0030 × 10–3 | 60.050951736 | 8.3357 × 10–3 | –180.102840769 | 180.105843742 |
10–2 | 8.3611 × 10–6 | 4.1771 × 10–6 | 4.9253 × 10–5 | 600.005009704 | 8.3334 × 10–4 | –1800.010029000 | 1.8000 × 103 |
10–3 | 8.3361 × 10–8 | 4.1677 × 10–8 | 2.9175 × 10–7 | 6.0000 × 103 | 8.3333 × 10–5 | –18000.001000000 | 1.8000 × 104 |
Список литературы
Фиакко А., Мак-Кормик Г. Нелинейное программирование. Методы последовательной безусловной минимизации. М.: Мир, 1972. 240 с.
Кудрявцев Л.Д. Курс математического анализа (в двух томах). Т. II. М.: Высшая школа, 1981. 584 с.
Сухарев А.Г., Тимохов А.В., Федоров В.В. Курс методов оптимизации. Электронный ресурс . М.: Физматлит, 2011. 384 с.
Умнов Е.А., Умнов А.Е. Метод параметрической линеаризации, использующий штрафные функции со всюду обратимой производной для решения пар двойственных задач // Труды МФТИ. 2011. Т. 3. № 1(9). С. 146–152.
Умнов А.Е. Многошаговая линейная экстраполяция в методе штрафных функций // Ж. вычисл. матем. и матем. физ. 1974. Т. 14. № 6. С. 1451–1463.
Фаддеев Д.К. Лекции по алгебре. М.: Наука, 1984. 416 с.
Умнов Е.А., Умнов А.Е. Параметрические задачи в математическом программировании. М.: МФТИ, 2018. 297 С. // www.umnov.ru .
Дополнительные материалы отсутствуют.
Инструменты
Журнал вычислительной математики и математической физики