Журнал вычислительной математики и математической физики, 2020, T. 60, № 7, стр. 1281-1288

Равномерно-апостериорные оценки погрешности регуляризующих алгоритмов

М. М. Кокурин *

Марийский гос. ун-т
424000 Йошкар-Ола, пл. Ленина, 1, Россия

* E-mail: kokurin@nextmail.ru

Поступила в редакцию 18.09.2019
После доработки 18.09.2019
Принята к публикации 10.03.2020

Полный текст (PDF)

Аннотация

Предлагается модификация определения апостериорной оценки погрешности регуляризующего алгоритма некорректной задачи. На этом пути вводится, анализируется и иллюстрируется примерами понятие равномерно-апостериорной оценки погрешности регуляризующего алгоритма для некорректной задачи в абстрактной постановке. Устанавливается необходимое и достаточное условие существования регуляризующего алгоритма, допускающее такую оценку. Дана характеристика класса условно-корректных задач в терминах регуляризуемости с равномерно-апостериорными оценками погрешности. Библ. 8.

Ключевые слова: некорректная задача, регуляризующий алгоритм, оценка погрешности, апостериорная оценка, равномерно-апостериорная оценка.

1. ВВЕДЕНИЕ

Следуя [1], [2], вначале приведем необходимые нам определения.

Определение 1. Под абстрактной вычислительной задачей (ниже – просто задачей) понимается совокупность $(G,D(G),X,Y)$, где $X = (X,{{\rho }_{X}})$ – метрическое пространство входных данных, $Y = (Y,{{\rho }_{Y}})$ – метрическое пространство решений, $G:X \to Y$ – оператор с областью определения $D(G) \subset X$, ставящий в соответствие каждому элементу $f \in D(G)$, описывающему входные данные, соответствующее решение $G(f) \in Y$.

Здесь предполагается, что задача имеет не более одного решения при любых входных данных $f \in X$. Именно, решение $G(f)$ единственно при $f \in D(G)$ и решений нет, если $f \notin D(G)$. Например, при решении операторного уравнения $F(u) = f$ с фиксированным инъективным оператором $F:Y \to X$ в качестве элемента входных данных можно рассматривать элемент $f \in X$, в этом случае оператор задачи имеет вид $G = {{F}^{{ - 1}}}$, $D(G) = {\text{Im}}F$.

Определение 2. Задача $(G,D(G),X,Y)$ называется корректной, если $D(G) = X$ и оператор $G:X \to Y$ непрерывен.

Определение 3. Задача $(G,D(G),X,Y)$ называется условно-корректной, если оператор $G$ относительно непрерывен на своей области определения $D(G)$, т.е. если

$\forall f \in D(G),\quad \forall \{ {{f}_{n}}\} \subset D(G)({\text{\{ }}{{f}_{n}}{\text{\} }}\mathop \to \limits^X f),\quad {\text{\{ }}G({{f}_{n}}){\text{\} }}\mathop \to \limits^Y G(f),$
или, эквивалентно,
$\begin{gathered} \forall f \in D(G),\quad \forall \varepsilon > 0,\quad \exists \delta = \delta (f,\varepsilon ) > 0\,:\quad \forall {{f}_{\delta }} \in {{B}_{\delta }}(f) \cap D(G), \\ {{\rho }_{Y}}(G({{f}_{\delta }}),G(f)) \leqslant \varepsilon . \\ \end{gathered} $
Здесь и далее ${{B}_{\delta }}(f) = {\text{\{ }}g \in X\,|\,{{\rho }_{X}}(f,g) \leqslant \delta {\text{\} }}$.

Кратко прокомментируем смысл приведенных определений. В прикладных задачах вместо точного элемента $f \in X$ обычно бывает известно его приближение ${{f}_{\delta }} \in X$, ${{\rho }_{X}}({{f}_{\delta }},f) \leqslant \delta $ с известным уровнем погрешности $\delta > 0$. Естественно предполагать, что точный элемент $f$ принадлежит области определения $D(G)$, т.е. что решение $G(f) \in Y$ существует. Если задача $(G,D(G),X,Y)$ корректна, то элемент $G({{f}_{\delta }}) \in Y$ также определен и при малом $\delta $ может служить приближением в метрике пространства $Y$ для искомого решения $G(f)$, поскольку $\mathop {lim}\limits_{\delta \to 0} \mathop {sup}\limits_{{{f}_{\delta }} \in {{B}_{\delta }}(f)} {{\rho }_{Y}}(G({{f}_{\delta }}),G(f)) = 0$. Если же рассматриваемая задача некорректна, то элемент $G({{f}_{\delta }})$ может не существовать, поскольку приближение ${{f}_{\delta }}$ не обязательно принадлежит $D(G)$. Более того, если ${{f}_{\delta }} \in D(G)$, то элемент $G({{f}_{\delta }})$ может не быть близок к $G(f)$ в метрике пространства $Y$ при сколь угодно малом $\delta $. Если задача $(G,D(G),X,Y)$ не является корректной, но является при этом условно-корректной, то элемент $G({{f}_{\delta }})$ также не обязательно определен, однако в случае ${{f}_{\delta }} \in D(G)$ он может служить приближением для решения $G(f)$ в смысле метрики ${{\rho }_{Y}}$ при достаточно малых $\delta $. Это следует из того, что в силу определения 3 имеем

$\mathop {lim}\limits_{\delta \to 0} \mathop {sup}\limits_{{{f}_{\delta }} \in {{B}_{\delta }}(f) \cap D(G)} {{\rho }_{Y}}(G({{f}_{\delta }}),G(f)) = 0.$

На практике устойчивые методы решения некорректных задач строятся с использованием регуляризующих алгоритмов.

Определение 4. Семейство отображений ${{{\text{\{ }}{{R}_{\delta }}:X \to Y{\text{\} }}}_{{\delta > 0}}}$ называется регуляризующим алгоритмом, если

(1)
$\forall f \in D(G),\quad \mathop {lim}\limits_{\delta \to 0} \mathop {sup}\limits_{{{f}_{\delta }} \in {{B}_{\delta }}(f)} {{\rho }_{Y}}({{R}_{\delta }}({{f}_{\delta }}),G(f)) = 0.$

Регуляризующий алгоритм позволяет найти приближение ${{R}_{\delta }}({{f}_{\delta }}) \in Y$ к точному решению $G(f) \in Y$, где $f \in D(G)$, если известны приближенные входные данные ${{f}_{\delta }} \in X$ и уровень погрешности $\delta > 0$. В литературе обычно требуется, чтобы все операторы ${{R}_{\delta }}$ были всюду определены, т.е. $\forall \delta > 0$, $D({{R}_{\delta }}) = X$. Нам будет удобно считать, что каждый оператор ${{R}_{\delta }}$, $\delta > 0$ может быть задан не на всем пространстве $X$, но для всех $\delta > 0$, $f \in D(G)$ и ${{f}_{\delta }} \in {{B}_{\delta }}(f)$, элемент ${{R}_{\delta }}({{f}_{\delta }})$ определен. Впрочем, если какие-то из операторов ${{R}_{\delta }}$ будут определены не на всем пространстве $X$, при необходимости их можно доопределить произвольным образом без нарушения (1), так что используемое нами определение регуляризующего алгоритма эквивалентно традиционному.

Сведения о точности регуляризующего алгоритма дают его оценки погрешности. Они могут быть априорными – использующими информацию лишь об уровне погрешности входных данных $\delta $, либо апостериорными – зависящими как от $\delta $, так и от ${{f}_{\delta }}$, т.е. использующими всю доступную информацию о входных данных.

Определение 5 (см. [3]–[6]). Апостериорной оценкой погрешности регуляризующего алгоритма ${{{\text{\{ }}{{R}_{\delta }}{\text{\} }}}_{{\delta > 0}}}$ для задачи $(G,D(G),X,Y)$ называется функция $\psi (\delta ,{{f}_{\delta }})$, определенная при любых $\delta > 0$ и ${{f}_{\delta }} \in {{B}_{\delta }}(f)$, $f \in D(G)$ и удовлетворяющая следующим двум условиям:

(A) $\forall f \in D(G)$, $\mathop {lim}\limits_{\delta \to 0} \mathop {sup}\limits_{{{f}_{\delta }} \in {{B}_{\delta }}(f)} \psi (\delta ,{{f}_{\delta }}) = 0$;

(B) $\forall f \in D(G)$, $\exists {{\delta }_{0}}(f) > 0:\forall \delta \in (0,{{\delta }_{0}}(f)]$, $\forall {{f}_{\delta }} \in {{B}_{\delta }}(f),$ ${{\rho }_{Y}}({{R}_{\delta }}({{f}_{\delta }}),G(f)) \leqslant \psi (\delta ,{{f}_{\delta }}).$

Задачи, допускающие существование регуляризующих алгоритмов с апостериорными оценками погрешности, названы в [3] вполне регуляризуемыми. Там же приведены достаточные условия полной регуляризуемости и показано, что существуют вполне регуляризуемые задачи, не являющиеся условно-корректными.

Из определения 5 видно, что наличие апостериорной оценки не позволяет гарантированно оценить расстояние от приближенного решения ${{R}_{\delta }}({{f}_{\delta }})$ до точного решения $G(f)$ в силу того, что вместо элемента $f$ на практике известно лишь его приближение ${{f}_{\delta }}$ и для имеющегося $\delta $ нет возможности проверить условие $\delta \in (0,{{\delta }_{0}}(f)]$. Возникает вопрос, до сих пор не освещенный в достаточной мере в литературе: насколько необходимо это неконструктивное условие в теории апостериорных оценок погрешности? Понятно, что если модифицировать определение апостериорной оценки, удалив это условие, то следует ожидать сужения класса задач, допускающих регуляризующие алгоритмы с такими оценками. Но насколько существенным получится это сужение? Этому вопросу и посвящена настоящая статья. В разд. 2 вводится понятие равномерно-апостериорной оценки погрешности, не содержащего непроверяемых условий на уровень погрешности $\delta $, и устанавливается критерий существования у задачи $(G,D(G),X,Y)$ регуляризующего алгоритма, допускающего такую оценку. Этим критерием оказывается условная корректность задачи. Таким образом, для задач, не являющихся условно-корректными, невозможны методы регуляризации со сколь угодно высокой точностью, гарантированной вне зависимости от выполнения каких-либо априорных условий, в то время как для любой условно-корректной задачи такие методы существуют. В разд. 3 приводятся примеры, иллюстрирующие соотношения между классами задач, допускающих регуляризующие алгоритмы с априорными, апостериорными и равномерно-апостериорными оценками погрешности.

2. РАВНОМЕРНО-АПОСТЕРИОРНЫЕ ОЦЕНКИ ПОГРЕШНОСТИ. ОСНОВНАЯ ТЕОРЕМА

В соответствии со сказанным выше, введем

Определение 6. Равномерно-апостериорной оценкой погрешности регуляризующего алгоритма ${{{\text{\{ }}{{R}_{\delta }}{\text{\} }}}_{{\delta > 0}}}$ для задачи $(G,D(G),X,Y)$ называется функция $\psi (\delta ,{{f}_{\delta }})$, определенная при любых $\delta > 0$ и ${{f}_{\delta }} \in {{B}_{\delta }}(f)$, $f \in D(G)$ и удовлетворяющая условию (A), а также следующему условию:

(B') $\forall f \in D(G)$, $\forall \delta > 0$, $\forall {{f}_{\delta }} \in {{B}_{\delta }}(f),$ ${{\rho }_{Y}}({{R}_{\delta }}({{f}_{\delta }}),G(f)) \leqslant \psi (\delta ,{{f}_{\delta }}).$

Здесь и далее мы считаем, что функция $\psi (\delta ,{{f}_{\delta }})$ в определениях апостериорной или равномерно-апостериорной оценки погрешности может принимать неотрицательные числовые значения или значение $ + \infty $, т.е. $\psi :[0, + \infty ) \times X \to [0, + \infty ]$. Однако в силу условия (A) для каждого $f \in D(G)$ должно существовать значение $\widetilde \delta (f) > 0$ такое, что

$\forall \delta \in (0,\widetilde \delta (f)],\quad \forall {{f}_{\delta }} \in {{B}_{\delta }}(f),\quad \psi (\delta ,{{f}_{\delta }}) < + \infty .$
Нетрудно видеть, что традиционное определение апостериорной оценки (определение 5) не зависит от того, разрешено ли функции $\psi (\delta ,{{f}_{\delta }})$ принимать значение $ + \infty $. Именно, при замене бесконечных значений функции $\psi (\delta ,{{f}_{\delta }})$, для которой выполнены условия (A) и (B), произвольными конечными значениями, оба условия будут по-прежнему выполняться, только в условии (B) вместо зависимости ${{\delta }_{0}}(f)$ следует взять $min{\text{\{ }}{{\delta }_{0}}(f),\widetilde \delta (f){\text{\} }}$. Таким образом, по-настоящему актуальной возможность бесконечных значений оценочной функции является только для равномерно-апостериорных оценок (см. замечание 3 ниже).

Практическая ценность равномерно-апостериорных оценок заключается в том, что они потенциально позволяют получить сколь угодно точную и достоверную информацию о расположении искомого решения при наличии возможности неограниченно увеличивать точность измерения входных данных.

Замечание 1. Между зависимостью ${{\delta }_{0}}(f)$ в апостериорных оценках и зависимостью $\widetilde \delta (f)$ в равномерно-апостериорных оценках имеется аналогия. Именно, оба вида оценок не дают никакой информации о близости приближенного решения ${{R}_{\delta }}({{f}_{\delta }})$ к точному решению $G(f)$ в случае, если $\delta > {{\delta }_{0}}(f)$ или если $\delta > \widetilde \delta (f)$, причем оба значения ${{\delta }_{0}}(f)$ и $\widetilde \delta (f)$ невозможно точно найти, не зная $f$. Но при наличии равномерно-апостериорной оценки это и не требуется. Подставив известные данные $\delta $ и ${{f}_{\delta }}$ в равномерно-апостериорную оценку $\psi (\delta ,{{f}_{\delta }})$, мы либо получим значение $ + \infty $ и тогда будем знать, что точность измерения входных данных следует увеличить для получения содержательной оценки погрешности решения, либо получим конечное значение, гарантированно оценивающее сверху искомое расстояние между приближенным и точным решениями. Если доставляемая оценка погрешности решения неприемлемо велика для практических целей, точность измерения входных данных следует увеличить, например удвоить (т.е. уменьшить уровень погрешности входных данных $\delta $ вдвое). В силу условия (A), через конечное число таких шагов будет достигнута приемлемая гарантированная точность решения. Имея же обычную апостериорную оценку, указать гарантированную точность решения принципиально невозможно.

Замечание 2. Понятие равномерно-апостериорной оценки отличается от понятия равномерной (на каком-либо множестве) апостериорной оценки [4], [5]. Все рассматриваемые в настоящей статье апостериорные оценки являются равномерными на $D(G)$. При необходимости рассмотрения апостериорных оценок, равномерных на некотором множестве $M \subset D(G)$, например отражающем априорную информацию о входных данных, можно перейти к задаче, оператор которой имеет область определения $M$ и совпадает на ней с оператором исходной задачи. По этому поводу см. пример 1 ниже.

Следующая теорема устанавливает критерий существования регуляризующего алгоритма с равномерно-апостериорной оценкой погрешности.

Теорема 1. Задача $(G,D(G),X,Y)$ допускает регуляризующий алгоритм с равномерно-апостериорной оценкой погрешности тогда и только тогда, когда она условно-корректна.

Доказательство. Необходимость. Пусть ${{{\text{\{ }}{{R}_{\delta }}{\text{\} }}}_{{\delta > 0}}}$ есть регуляризующий алгоритм для задачи $(G,D(G),X,Y)$ с равномерно-апостериорной оценкой погрешности $\psi (\delta ,{{f}_{\delta }})$. Выберем произвольно точку ${{f}_{0}} \in D(G)$ и сходящуюся к ней в метрике пространства $X$ последовательность ${\text{\{ }}{{f}_{n}}{\text{\} }} \subset D(G)$, и покажем, что ${\text{\{ }}G({{f}_{n}}){\text{\} }}\mathop \to \limits^Y G({{f}_{0}})$. Это и будет означать условную корректность задачи $(G,D(G),X,Y)$. Положим ${{\delta }_{n}} = {{\rho }_{X}}({{f}_{n}},{{f}_{0}})$, $n \in \mathbb{N}$. Тогда в силу условия (B') имеем

${{\rho }_{Y}}({{R}_{\delta }}({{f}_{0}}),G({{f}_{0}})) \leqslant \psi ({{\delta }_{n}},{{f}_{0}}),\quad {{\rho }_{Y}}({{R}_{\delta }}({{f}_{0}}),G({{f}_{n}})) \leqslant \psi ({{\delta }_{n}},{{f}_{0}}),\quad n \in \mathbb{N}.$
Отсюда в силу условия (A) следует, что ${{\rho }_{Y}}(G({{f}_{0}}),G({{f}_{n}})) \leqslant 2\psi ({{\delta }_{n}},{{f}_{0}}) \to 0$ при $n \to \infty $. Тем самым условная корректность задачи $(G,D(G),X,Y)$ доказана.

Достаточность. Пусть теперь $(G,D(G),X,Y)$ – произвольная условно-корректная задача. Для  любых $\delta > 0$ и ${{f}_{\delta }} \in {{B}_{\delta }}(f)$, $f \in D(G)$ выберем произвольную точку ${{P}_{\delta }}({{f}_{\delta }})$ из множества ${{B}_{\delta }}({{f}_{\delta }}) \cap D(G)$; данное множество непусто, так как содержит точный элемент $f$. Рассмотрим семейство отображений ${{{\text{\{ }}{{R}_{\delta }}:X \to Y{\text{\} }}}_{{\delta > 0}}}$, заданное формулой ${{R}_{\delta }}({{f}_{\delta }}) = G({{P}_{\delta }}({{f}_{\delta }}))$. Нетрудно видеть, что оно является регуляризующим алгоритмом для задачи $(G,D(G),X,Y)$. В самом деле, имеем

(2)
${{P}_{\delta }}({{f}_{\delta }}) \in {{B}_{\delta }}({{f}_{\delta }}) \cap D(G) \subset {{B}_{{2\delta }}}(f) \cap D(G).$
В силу условной корректности задачи $(G,D(G),X,Y)$,
(3)
$\forall \varepsilon > 0,\quad \exists \widehat \delta (\varepsilon ):\mathop {sup}\limits_{\tilde {f} \in {{B}_{{\widehat \delta (\varepsilon )}}}(f)\, \cap \,D(G)} {{\rho }_{Y}}(G(\tilde {f}),\quad G(f)) \leqslant \varepsilon ,$
и поэтому при $\delta \leqslant \widehat \delta (\varepsilon ){\text{/}}2$ справедливо
$\mathop {sup}\limits_{{{f}_{\delta }} \in {{B}_{\delta }}(f)} {{\rho }_{Y}}(G({{P}_{\delta }}({{f}_{\delta }})),G(f)) \leqslant \varepsilon .$
Отсюда непосредственно следует справедливость (1). Мы показали, что ${{{\text{\{ }}{{R}_{\delta }}{\text{\} }}}_{{\delta > 0}}}$ есть регуляризующий алгоритм.

Введем обозначение $\operatorname{diam} M = \mathop {sup}\limits_{{{y}_{1}},{{y}_{2}} \in M} {{\rho }_{Y}}({{y}_{1}},{{y}_{2}})$ для диаметра произвольного множества $M \subset Y$. Покажем, что функция $\psi (\delta ,{{f}_{\delta }}) = \operatorname{diam} G({{B}_{\delta }}({{f}_{\delta }}))$ служит равномерно-апостериорной оценкой ${{{\text{\{ }}{{R}_{\delta }}{\text{\} }}}_{{\delta > 0}}}$. Условие (B') выполнено в силу (2). Далее, выберем в множестве $G({{B}_{\delta }}({{f}_{\delta }}))$ произвольные точки ${{y}_{1}} = G({{f}_{1}})$, ${{y}_{2}} = G({{f}_{2}})$ такие, что

${{f}_{1}},{{f}_{2}} \in {{B}_{\delta }}({{f}_{\delta }}) \cap D(G) \subset {{B}_{{2\delta }}}(f) \cap D(G).$
Согласно (3), для любого $\varepsilon > 0$ при $\delta \leqslant \tfrac{1}{2}\widehat \delta \left( {\tfrac{\varepsilon }{2}} \right)$ имеем
${{\rho }_{Y}}({{y}_{1}},{{y}_{2}}) \leqslant {{\rho }_{Y}}(G({{f}_{1}}),G(f)) + {{\rho }_{Y}}(G({{f}_{2}}),G(f)) \leqslant \varepsilon $
и, значит, $\operatorname{diam} G({{B}_{\delta }}({{f}_{\delta }})) \leqslant \varepsilon $. Отсюда следует справедливость условия (A). Теорема доказана.

Теорема 1 доставляет новое описание широко известного класса условно-корректных задач в терминах регуляризуемости с равномерно-апостериорной оценкой погрешности.

Замечание 3. Если для некоторых приближенных входных данных ${{f}_{\delta }}$ и уровня погрешности $\delta $ при решении задачи $(G,D(G),X,Y)$ справедливо $\operatorname{diam} G({{B}_{\delta }}({{f}_{\delta }})) = + \infty $, то $\psi (\delta ,{{f}_{\delta }}) = + \infty $ для любой равномерно-апостериорной оценки погрешности $\psi $ любого регуляризующего алгоритма ${{{\text{\{ }}{{R}_{\delta }}{\text{\} }}}_{{\delta > 0}}}$ данной задачи. Это следует из условия (B') с учетом того, что в описываемом случае для любого натурального $N$ в непустом множестве ${{B}_{\delta }}({{f}_{\delta }}) \cap D(G)$ можно выбрать точку $\tilde {f}(N)$ так, чтобы ${{\rho }_{Y}}({{R}_{\delta }}({{f}_{\delta }}),G(\tilde {f}(N))) > N$.

Пример 1. Рассмотрим операторное уравнение $F(u) = f$ с фиксированным инъективным непрерывным оператором $F:Y \to X$ и входными данными $f \in X$. Пусть об искомом решении $u{\text{*}}$ известна априорная информация $u* \in M$, где $M \subset Y$ – компактное множество. Такая задача формализуется в виде $(G,D(G),X,Y)$, где оператор задачи $G = {{F}^{{ - 1}}}$, $D(G) = F(M) \subset X$. Хорошо известно [1], что она является условно-корректной. Отметим, что требование инъективности оператора $F$ на всем $Y$ можно заменить требованием инъективности его сужения на $M$. Нетрудно видеть, что рассмотренный в доказательстве теоремы 1 регуляризующий алгоритм ${{R}_{\delta }}({{f}_{\delta }}) = G({{P}_{\delta }}({{f}_{\delta }}))$ в применении к данной задаче совпадает с известным методом невязки. Напомним, что согласно этому методу в качестве приближенного решения ${{R}_{\delta }}({{f}_{\delta }})$ выбирается произвольный элемент множества ${{\Omega }_{\delta }}({{f}_{\delta }}) = {\text{\{ }}u \in M\,|\,{{\rho }_{Y}}(F(u),{{f}_{\delta }}) \leqslant \delta {\text{\} }}$, которому заведомо принадлежит и точное решение $G(f) = u{\text{*}}$. Поэтому справедлива равномерно-апостериорная оценка погрешности

${{\rho }_{Y}}({{R}_{\delta }}({{f}_{\delta }}),G(f)) \leqslant \psi (\delta ,{{f}_{\delta }}) \equiv \operatorname{diam} {{\Omega }_{\delta }}({{f}_{\delta }}).$
Как и любая равномерно-апостериорная оценка, она является в то же время апостериорной.

Обсудим связь введенного понятия равномерно-апостериорной оценки с априорными оценками погрешности регуляризующих алгоритмов.

Определение 7. Функция $\varphi (\delta )$, $\delta > 0$ называется априорной оценкой погрешности регуляризующего алгоритма ${{{\text{\{ }}{{R}_{\delta }}{\text{\} }}}_{{\delta > 0}}}$ для задачи $(G,D(G),X,Y)$, если $\mathop {lim}\limits_{\delta \to 0} \varphi (\delta ) = 0$ и

(4)
$\forall f \in D(G),\quad \forall \delta > 0,\quad \forall {{f}_{\delta }} \in {{B}_{\delta }}(f),\quad {{\rho }_{Y}}({{R}_{\delta }}({{f}_{\delta }}),G(f)) \leqslant \varphi (\delta ).$
Здесь мы также предполагаем, что функция $\varphi (\delta )$ может принимать бесконечные значения. Эквивалентно, можно было бы запретить бесконечные значения, но заменить в (4) $\forall \delta > 0$ на $\forall \delta \in (0,{{\delta }_{0}}]$ с некоторым фиксированным (для каждой конкретной априорной оценки) значением ${{\delta }_{0}}$. Очевидно, что если некоторый регуляризующий алгоритм допускает априорную оценку погрешности, то он допускает и равномерно-апостериорную оценку $\psi (\delta ,{{f}_{\delta }}) = \varphi (\delta )$. Тем не менее имеет смысл искать лучшие равномерно-апостериорные оценки, чем $\varphi (\delta )$, так как в отличие от априорной оценки они наряду с $\delta $ могут использовать информацию о приближенных входных данных ${{f}_{\delta }}$. Следующая теорема показывает, что условие существования регуляризующего алгоритма с априорной оценкой погрешности сильнее условия существования регуляризующего алгоритма с равномерно-апостериорной оценкой.

Теорема 2. Задача $(G,D(G),X,Y)$ допускает априорную оценку погрешности тогда и только тогда, когда отображение $G$ равномерно непрерывно на $D(G)$.

Необходимость доказана в [1] и элементарно вытекает из неравенства

${{\rho }_{Y}}(G({{f}_{1}}),G({{f}_{2}})) \leqslant {{\rho }_{Y}}({{R}_{\delta }}({{f}_{1}}),G({{f}_{1}})) + {{\rho }_{Y}}({{R}_{\delta }}({{f}_{1}}),G({{f}_{2}})) \leqslant 2\varphi (\delta ),$
справедливого для любых ${{f}_{1}},{{f}_{2}} \in D(G)$ с ${{\rho }_{X}}({{f}_{1}},{{f}_{2}}) \leqslant \delta $. Для доказательства достаточности заметим, что в предположении равномерной непрерывности оператора $G$ на множестве $D(G)$ функция $\varphi (\delta ) = \mathop {sup}\limits_{f \in D(G)} {\text{diam}}G({{B}_{{2\delta }}}(f))$ служит априорной оценкой погрешности для регуляризующего алгоритма ${{R}_{\delta }}({{f}_{\delta }}) = G({{P}_{\delta }}({{f}_{\delta }}))$, введенного в доказательстве теоремы 1.

В следующем разделе различие классов задач, допускающих регуляризующие алгоритмы с апостериорными, равномерно-апостериорными и априорными оценками погрешности, будет проиллюстрировано примерами.

3. ОБСУЖДЕНИЕ И ПРИМЕРЫ

Как видим, имеется несколько вложенных друг в друга классов задач, характеризуемых степенью возможности их приближенного решения и оценки точности этого решения. Самым широким является класс регуляризуемых задач, допускающих хотя бы один регуляризующий алгоритм. Более узкий класс составляют вполне регуляризуемые задачи, для которых существует регуляризующий алгоритм, допускающий апостериорную оценку погрешности [3]. Еще более узким является класс условно-корректных задач, согласно теореме 1 совпадающий с классом задач, допускающих регуляризующие алгоритмы с равномерно-апостериорными оценками погрешности. Наконец, самый узкий класс в этой иерархии составляют задачи, для которых существуют регуляризующие алгоритмы с априорными оценками погрешности. Теорема 2 показывает, что этот класс включает даже не все корректные задачи. Например, задача $G(x) = {{x}^{2}}$, $X = D(G) = \mathbb{R}$, $Y = D(G) = \mathbb{R}$ корректна, но не принадлежит данному классу, так как отображение $G$ не является равномерно непрерывным на $D(G)$.

Проиллюстрируем на примерах, что вложения перечисленных классов строгие. Строгость включения класса вполне регуляризуемых задач в класс регуляризуемых задач установлена в [6]. Именно в [6] показано, что функция Римана в пространствах $X = [0,1]$ и $Y = \mathbb{R}$ со стандартной метрикой является регуляризуемым, но не вполне регуляризуемым отображением, т.е. не допускает регуляризующих алгоритмов с апостериорными оценками. Приведем теперь пример задачи, допускающей регуляризующий алгоритм с апостериорной, но не равномерно-апостериорной оценкой.

Пример 2. Рассмотрим линейное операторное уравнение $Au = f$, где $A \in L(Y,X)$ – линейный ограниченный инъективный оператор с неограниченным обратным, $X$, $Y$ – линейные нормированные пространства. Пусть об искомом решении $u* \in Y$ априори известно, что оно допускает представление $u* = Bv{\kern 1pt} {\text{*}}$, где $v{\kern 1pt} * \in V$, $V$ – линейное нормированное пространство, $B \in L(V,Y)$ – вполне непрерывный оператор с плотным в $Y$ образом. Оператор задачи имеет вид $G = {{A}^{{ - 1}}}$, $D(G) = {\text{Im}}(AB) \subset X$. В силу наложенных выше условий на операторы $A$ и $B$, оператор $G = {{A}^{{ - 1}}}$ неограничен на $D(G)$. Отсюда следует, что рассматриваемая задача не является условно-корректной и, согласно теореме 1, не допускает равномерно-апостериорных оценок погрешности.

В качестве регуляризующего алгоритма с апостериорной оценкой погрешности для рассматриваемой задачи выберем известный метод расширяющихся компактов [4]:

${{R}_{\delta }}({{f}_{\delta }}) = \mathop {{\text{argmin}}}\limits_{u \in {{U}_{{n(\delta ,{{f}_{\delta }})}}}} {{\left\| {Au - {{f}_{\delta }}} \right\|}_{X}},$
где
${{U}_{n}} = {\text{\{ }}u \in Y\,|\,u = Bv,\;v \in V,\;{{\left\| v \right\|}_{V}} \leqslant n{\text{\} }}$
и $n(\delta ,{{f}_{\delta }})$ есть минимальное $n$, при котором $\mathop {min}\limits_{u \in {{U}_{n}}} {{\left\| {Au - {{f}_{\delta }}} \right\|}_{X}} \leqslant \delta $. Как показано в [4], функция
$\psi (\delta ,{{f}_{\delta }}) = \mathop {max}\limits_{u \in {{U}_{{n(\delta ,{{f}_{\delta }})}}}\,:\,{{{\left\| {Au - {{f}_{\delta }}} \right\|}}_{X}} \leqslant \delta } {{\left\| {u - {{R}_{\delta }}({{f}_{\delta }})} \right\|}_{Y}}$
служит апостериорной оценкой погрешности для описанного регуляризующего алгоритма. Подробнее, существует ${{\delta }_{0}} = {{\delta }_{0}}(f)$ такое, что при $\delta \in (0,{{\delta }_{0}}(f)]$ и любых ${{f}_{\delta }} \in {{B}_{\delta }}(f)$ величина $n(\delta ,{{f}_{\delta }})$ равна $N = \left\lceil {{{{\left\| {v*} \right\|}}_{V}}} \right\rceil $, так что искомое решение $u* \in {{U}_{N}}$. Отсюда и следует, что ${{\left\| {{{R}_{\delta }}({{f}_{\delta }}) - u{\kern 1pt} *} \right\|}_{Y}} \leqslant \psi (\delta ,{{f}_{\delta }})$ при $\delta \in (0,{{\delta }_{0}}(f)]$. Подчеркнем, что эта оценка не является равномерно-апостериорной ввиду условия $\delta \in (0,{{\delta }_{0}}(f)]$.

Согласно теоремам 1 и 2, чтобы указать задачу $(G,D(G),X,Y)$, допускающую регуляризующий алгоритм с равномерно-апостериорной оценкой, но не допускающую регуляризующих алгоритмов с априорными оценками погрешности, достаточно взять произвольное отображение $G:X \to Y$, относительно непрерывное на своей области определения $D(G) \subset X$, но не равномерно непрерывное на нем. Один из возможных содержательных примеров такой задачи приведен ниже.

Пример 3. Пусть $X = C[ - a,b]$ – пространство непрерывных функций с равномерной метрикой на отрезке $[ - a,b]$, где $a,b > 0$, $Y = \mathbb{R}$, $G(f) = {{f}^{\prime }}(0)$ и $D(G) \subset X$ есть множество выпуклых непрерывных функций на отрезке $[ - a,b]$, дифференцируемых в точке $x = 0$. Такая постановка задачи означает, что входными данными является непрерывная функция $f(x)$, $x \in [ - a,b]$, про которую априори известно, что она выпуклая на $[ - a,b]$ и дифференцируемая в нуле, и требуется найти $f{\kern 1pt} '(0)$. При этом вместо самой функции $f(x)$ известно ее приближение – непрерывная функция ${{f}_{\delta }}(x)$, $x \in [ - a,b]$ такая, что

(5)
${{\rho }_{X}}({{f}_{\delta }},f) = \mathop {max}\limits_{x \in [ - a,b]} \left| {{{f}_{\delta }}(x) - f(x)} \right| \leqslant \delta ,$
и уровень погрешности $\delta > 0$ также известен.

Построим для описанной задачи регуляризующий алгоритм с равномерно-апостериорной оценкой погрешности. Заметим, что в силу соотношения (5) и выпуклости функции $f$ для всех $x \in [ - a,b]$ справедливы неравенства

$f(x) \geqslant f{\kern 1pt} {\text{'}}(0)x + f(0) \geqslant f{\kern 1pt} {\text{'}}(0)x + {{f}_{\delta }}(0) - \delta ;$
$f(x) \leqslant {{f}_{\delta }}(x) + \delta .$
Отсюда следует, что
$f{\kern 1pt} {\text{'}}(0)x \leqslant {{f}_{\delta }}(x) - {{f}_{\delta }}(0) + 2\delta ,\quad x \in [ - a,b],$
и, значит,
(6)
$\mathop {sup}\limits_{x \in [ - a,0)} \frac{{{{f}_{\delta }}(x) - {{f}_{\delta }}(0) + 2\delta }}{x} \leqslant f{\kern 1pt} {\text{'}}(0) \leqslant \mathop {inf}\limits_{x \in (0,b]} \frac{{{{f}_{\delta }}(x) - {{f}_{\delta }}(0) + 2\delta }}{x}.$
Отметим, что обе точные грани в (6) конечны. Покажем теперь, что
(7)
${{R}_{\delta }}({{f}_{\delta }}) = \frac{1}{2}\left( {\mathop {sup}\limits_{x \in [ - a,0)} \frac{{{{f}_{\delta }}(x) - {{f}_{\delta }}(0) + 2\delta }}{x}} \right. + \left. {\mathop {inf}\limits_{x \in (0,b]} \frac{{{{f}_{\delta }}(x) - {{f}_{\delta }}(0) + 2\delta }}{x}} \right)$
и
(8)
$\psi (\delta ,{{f}_{\delta }}) = \frac{1}{2}\left( {\mathop {inf}\limits_{x \in (0,b]} \frac{{{{f}_{\delta }}(x) - {{f}_{\delta }}(0) + 2\delta }}{x}} \right. - \left. {\mathop {sup}\limits_{x \in [ - a,0)} \frac{{{{f}_{\delta }}(x) - {{f}_{\delta }}(0) + 2\delta }}{x}} \right)$
суть регуляризующий алгоритм для задачи $(G,D(G),X,Y)$ и его равномерно-апостериорная оценка погрешности.

В силу (6) для всех $x \in [ - a,0)$ справедливо

(9)
$\begin{gathered} 0 \leqslant f{\kern 1pt} {\text{'}}(0) - \mathop {sup}\limits_{\xi \in [ - a,0)} \frac{{{{f}_{\delta }}(\xi ) - {{f}_{\delta }}(0) + 2\delta }}{\xi } \leqslant f{\kern 1pt} {\text{'}}(0) - \frac{{{{f}_{\delta }}(x) - {{f}_{\delta }}(0) + 2\delta }}{x} \leqslant \\ \leqslant \left| {f{\kern 1pt} {\text{'}}(0) - \frac{{f(x) - f(0)}}{x}} \right| + \frac{{4\delta }}{{\left| x \right|}}. \\ \end{gathered} $
Считая функцию $f$ фиксированной и применяя определение производной, для любого $\varepsilon > 0$ выберем ${{x}_{1}} = {{x}_{1}}(\varepsilon ) \in [ - a,0)$ так, чтобы выполнялось
$\left| {f{\kern 1pt} {\text{'}}(0) - \frac{{f({{x}_{1}}) - f(0)}}{{{{x}_{1}}}}} \right| \leqslant \frac{\varepsilon }{4}.$
Тогда при $\delta \leqslant (\varepsilon {\text{/}}16)\left| {{{x}_{1}}} \right|$ имеем также $4\delta {\text{/}}\left| {{{x}_{1}}} \right| \leqslant \varepsilon {\text{/}}4$. Поэтому с использованием (9) заключаем, что
(10)
$\forall \delta \in \left( {0,\frac{\varepsilon }{{16}}\left| {{{x}_{1}}} \right|} \right],\quad \forall {{f}_{\delta }} \in {{B}_{\delta }}(f),\quad 0 \leqslant f{\kern 1pt} {\text{'}}(0) - \mathop {sup}\limits_{x \in [ - a,0)} \frac{{{{f}_{\delta }}(x) - {{f}_{\delta }}(0) + 2\delta }}{x} \leqslant \frac{\varepsilon }{2}.$
Аналогично получается утверждение
(11)
$\forall \delta \in \left( {0,\frac{\varepsilon }{{16}}\left| {{{x}_{2}}} \right|} \right],\quad \forall {{f}_{\delta }} \in {{B}_{\delta }}(f),\quad 0 \leqslant \mathop {inf}\limits_{x \in (0,b]} \frac{{{{f}_{\delta }}(x) - {{f}_{\delta }}(0) + 2\delta }}{x} - f{\kern 1pt} {\text{'}}(0) \leqslant \frac{\varepsilon }{2},$
где ${{x}_{2}} = {{x}_{2}}(\varepsilon ) \in (0,b]$ выбрано так, что
$\left| {f{\kern 1pt} {\text{'}}(0) - \frac{{f({{x}_{2}}) - f(0)}}{{{{x}_{2}}}}} \right| \leqslant \frac{\varepsilon }{4}.$
Комбинируя (8), (10) и (11), получаем
$\forall \varepsilon > 0,\quad \forall \delta \in \left( {0,\;\frac{\varepsilon }{{16}}min\left\{ {\left| {{{x}_{1}}(\varepsilon )} \right|,\;\left| {{{x}_{2}}(\varepsilon )} \right|} \right\}} \right],\quad \forall {{f}_{\delta }} \in {{B}_{\delta }}(f),\quad \psi (\delta ,{{f}_{\delta }}) \leqslant \varepsilon .$
Отсюда следует справедливость условия (A) для функции (8). Кроме того, из (6), (7) и (8) непосредственно следует, что
${{\rho }_{Y}}({{R}_{\delta }}({{f}_{\delta }}),G(f)) = \left| {{{R}_{\delta }}({{f}_{\delta }}) - f{\kern 1pt} {\text{'}}(0)} \right| \leqslant \psi (\delta ,{{f}_{\delta }}).$
Полученная оценка доказывает выполнение условия (B') и справедливость (1). Значит, ${{{\text{\{ }}{{R}_{\delta }}{\text{\} }}}_{{\delta > 0}}}$ и $\psi $ суть регуляризующий алгоритм для задачи $(G,D(G),X,Y)$ и его равномерно-апостериорная оценка погрешности. Заметим, что в силу теоремы 1 отсюда следует условная корректность рассматриваемой задачи.

Покажем теперь, что регуляризующих алгоритмов с априорными оценками погрешности у задачи $(G,D(G),X,Y)$ не существует. В самом деле, выберем произвольное $\varepsilon > 0$ и положим

${{f}_{1}}(x) = \left\{ \begin{gathered} 0,\quad x \in \left[ { - a,\varepsilon } \right] \hfill \\ x - \varepsilon ,\quad x \in \left( {\varepsilon ,b} \right] \hfill \\ \end{gathered} \right\},\quad {{f}_{2}}(x) = \left\{ \begin{gathered} - \varepsilon ,\quad x \in \left[ { - a, - \varepsilon } \right] \hfill \\ x,\quad x \in \left( {\varepsilon ,b} \right] \hfill \\ \end{gathered} \right\}.$
Очевидно, что ${{f}_{1}},{{f}_{2}} \in D(G)$. Заметим, что
${{\rho }_{X}}({{f}_{1}},{{f}_{2}}) = \mathop {max}\limits_{x \in [ - a,b]} \left| {{{f}_{1}}(x) - {{f}_{2}}(x)} \right| = \varepsilon $
может быть сколь угодно малым, в то время как
${{\rho }_{Y}}(G({{f}_{1}}),G({{f}_{2}})) = \left| {f_{1}^{'}(0) - f_{2}^{'}(0)} \right| = \left| {0 - 1} \right| = 1.$
Это значит, что отображение $G$ не является равномерно непрерывным на $D(G)$, и в силу теоремы 2 регуляризующие алгоритмы с априорными оценками погрешности для $(G,D(G),X,Y)$ невозможны.

Таким образом, в статье введено и проиллюстрировано понятие равномерно-апостериорной оценки погрешности регуляризующих алгоритмов, обсуждена его связь с известными в литературе понятиями априорной и апостериорной оценки и доказано, что класс абстрактных вычислительных задач, допускающих регуляризующие алгоритмы с равномерно-апостериорными оценками погрешности, совпадает с классом условно-корректных задач. В заключение отметим, что этот класс (при условии полноты пространства решений $Y$) совпадает также с классом задач, допускающих регуляризующие алгоритмы вида ${{R}_{\delta }} \equiv R$, т.е. не использующих информацию об уровне погрешности входных данных [2]. Разнообразные примеры прикладных условно-корректных задач приведены в [7], [8].

Список литературы

  1. Бакушинский А.Б., Гончарский А.В. Некорректные задачи. Численные методы и приложения. М.: Изд-во Моск. ун-та, 1989.

  2. Кокурин М.Ю. Об условно-корректных и обобщенно-корректных задачах // Ж. вычисл. матем. и матем. физ. 2013. Т. 53. № 6. С. 857–866.

  3. Гапоненко Ю.Л. Об одном классе вполне регуляризуемых отображений // Ж. вычисл. матем. и матем. физ. 1982. Т. 22. № 1. С. 3–9.

  4. Дорофеев К.Ю., Титаренко В.Н., Ягола А.Г. Алгоритмы построения апостериорных погрешностей решения для некорректных задач // Ж. вычисл. матем. и матем. физ. 2003. Т. 43. № 1. С. 12–25.

  5. Леонов А.С. Об апостериорных оценках точности решения линейных некорректно поставленных задач и экстраоптимальных регуляризующих алгоритмах // Вычисл. методы и программирование. 2010. Т. 11. С. 14–24.

  6. Винокуров В.А. Строгая регуляризуемость разрывных функций // Докл. АН СССР. 1985. Т. 281. № 2. С. 265–269.

  7. Романов В.Г. Устойчивость в обратных задачах. М.: Науч. мир, 2005.

  8. Isakov V. Inverse Problems for Partial Differential Equations. Berlin: Springer, 2006.

Дополнительные материалы отсутствуют.

Инструменты

Журнал вычислительной математики и математической физики