Журнал вычислительной математики и математической физики, 2019, T. 59, № 6, стр. 920-936

Семейства оптимальных двух- и трехточечных итераций, не содержащих производные для решения нелинейных уравнений

Т. Жанлав 1*, Х. Отгондорж 2**, О. Чулуунбаатар 13***

1 Институт математики, Монгольский Государственный университет
14201 Улан-батор, Монголия

2 Факультет прикладных наук, Монгольский Государственный университет науки и технологии
14191 Улан-батор, Монголия

3 Объединенный институт ядерных исследований
141980 М. О., Дубна, Россия

* E-mail: tzhanlav@yahoo.com
** E-mail: otgondorj@gmail.com
*** E-mail: chuka@jinr.ru

Поступила в редакцию 09.09.2018
После доработки 16.01.2019
Принята к публикации 08.02.2019

Полный текст (PDF)

Аннотация

В работе впервые даны необходимые и достаточные условия для двух- и трехточечных итерационных методов, не содержащих производные, чтобы иметь оптимальный порядок сходимости. Эти условия могут быть эффективно использованы не только для установления порядка сходимости итерационных методов, но и для конструкции новых методов. Более того, использование метода производящих функций позволяет конструировать широкий класс оптимальных двух- и трехточечных методов, не содержащих производные, который включает в себя много известных методов как частные случаи. Также впервые нашли аналитическую формулу для оптимального выбора параметра итераций, который позволяет увеличить порядок сходимости. Библ. 34. Табл. 6.

Ключевые слова: нелинейные уравнения, двух- и трехточечные итерации, необходимые и достаточные условия, оптимальные методы.

1. ВВЕДЕНИЕ

В настоящее время существует много итерационных методов для решения нелинейных уравнений и систем уравнений (см. [1]–[6]). В частности, необходимы методы, не содержащие производные, когда невозможно или затруднительно найти производную функции. Самый простой из них – хорошо известный метод секущих и метод Стефенсона с низким порядком сходимости. В настоящее время весьма важно получить новые оптимальные методы с восьмой степенью сходимости, потому что их индекс эффективности равен ${{8}^{{1/4}}} \approx 1.682$. Такие методы имеют приложения в экспериментальной математике, в теории чисел, в физике высоких энергий, в нелинейном процессе моделирования, в конечном элементе моделирования CAD, в 3D графике, в статистике, безопасности, в криптографии (см. [7]–[9]). В последнее десятилетие были разработаны различные двух- и трехточечные методы, не содержащие производные, с хорошими свойствами сходимости (например, см. [1]–[24], [25]–[33]). Построение итерационных методов высокого порядка сходимости стало возможным благодаря быстрому развитию компьютера, успехам компьютерной арифметики и символьных вычислений. В данной работе предлагаются некоторые семейства итерационных методов, не содержащих производные, основанных на методе производящих функций, предложенном в [5] и оптимальном выборе параметров итераций [6]. Предлагается новый и прямой подход к доказательству порядка сходимости методов без использования символьных вычислений.

Структура работы следующая. В разд. 2 рассмотрены двухточечные итерационные методы, не содержащие производные, и получены необходимые и достаточные условия для того, чтобы они были четвертого порядка сходимости. Предложены также выборы производящих функций для итерационного параметра $\tau $. В частности, получены оптимальные конечно-разностные варианты известных методов Кунга–Трауба, Кинга и Махешвари. В разд. 3 рассмотрены трехточечные итерационные методы, не содержащие производные, и получены также необходимые и достаточные условия для того, чтобы они были восьмого порядка сходимости. Предложен широкий класс оптимальных трехточечных итераций, который содержит в себе много известных методов как частные случаи. Доказана локальная сходимость методов, не используя символьных вычислений. В разд. 4 представлены результаты численных экспериментов, которые подтверждают теоретический вывод о порядке сходимости и сделаны сравнения с другими известными методами.

2. ДВУХТОЧЕЧНЫЕ ИТЕРАЦИОННЫЕ МЕТОДЫ, НЕ СОДЕРЖАЩИЕ ПРОИЗВОДНЫЕ

Рассмотрим следующие двухточечные итерации, не содержащие производные

(2.1a)
${{y}_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{\phi ({{x}_{k}})}},$
(2.1b)
${{x}_{{k + 1}}} = {{y}_{k}} - {{\bar {\tau }}_{k}}\frac{{f({{y}_{k}})}}{{\phi ({{x}_{k}})}},$
где
(2.2)
$f{\kern 1pt} '(x) \approx \phi (x) = \frac{{f(x + \gamma f(x)) - f(x)}}{{\gamma f(x)}},\quad \gamma \in R,$
$\gamma $ свободный ненулевой параметр, и ${{\bar {\tau }}_{k}}$ – параметр, который необходимо определить должным образом. Здесь функция $\phi (x) \equiv \phi (x,\gamma )$ зависит не только от $x$, но и от параметра $\gamma $, и по определению производной имеем
(2.3)
$f{\kern 1pt} '(x) = \phi (x,\gamma ),\quad \gamma \to 0.$
Для определения порядка сходимости итераций (2.1a), (2.1b) обозначим
(2.4)
${{w}_{k}} = \frac{{f{\kern 1pt} '({{x}_{k}})}}{{\phi ({{x}_{k}})}} \ne 0.$
Пусть $f(x) \in {{C}^{3}}(I)$, где $I$ – интервал, содержащий корень $x{\kern 1pt} {\text{*}}$ уравнения $f(x) = 0$. Тогда разложения Тейлора функций $f({{y}_{k}})$ и $f({{x}_{k}} + \gamma f({{x}_{k}}))$ дают
(2.5)
(2.6)
$\phi ({{x}_{k}}) = f{\kern 1pt} '({{x}_{k}})\left( {1 + \gamma \frac{{f{\kern 1pt} ''({{x}_{k}})}}{2}\frac{{f({{x}_{k}})}}{{f'({{x}_{k}})}}} \right) + O({{f}^{2}}({{x}_{k}})).$
Подставляя (2.6) в (2.4), получаем
(2.7)
${{w}_{k}} = \frac{1}{{1 + \gamma \frac{{f{\kern 1pt} ''({{x}_{k}})}}{2}\frac{{f({{x}_{k}})}}{{f{\kern 1pt} '({{x}_{k}})}}}} + O({{f}^{2}}({{x}_{k}})) = 1 - \gamma \frac{{f{\kern 1pt} ''({{x}_{k}})}}{2}\frac{{f({{x}_{k}})}}{{f{\kern 1pt} '({{x}_{k}})}} + O({{f}^{2}}({{x}_{k}})),$
или
(2.8)
${{w}_{k}} = 1 + O(f({{x}_{k}})).$
Принимая во внимание (2.8) в (2.5), имеем
(2.9)
$f({{y}_{k}}) = O({{f}^{2}}({{x}_{k}})).$
Как в [6], используем обозначение
(2.10)
${{\theta }_{k}} = \frac{{f({{y}_{k}})}}{{f({{x}_{k}})}}.$
Из (2.9), (2.10) следует, что ${{\theta }_{k}} = O(f({{x}_{k}}))$. Используя (2.5) в (2.10), получим
(2.11)
${{\theta }_{k}} = 1 - {{w}_{k}} + \frac{1}{2}{{w}_{k}}\frac{{f{\kern 1pt} ''({{x}_{k}})f({{x}_{k}})}}{{f{\kern 1pt} '({{x}_{k}})\phi ({{x}_{k}})}} + O({{f}^{2}}({{x}_{k}})).$
Исключение $\tfrac{{f{\kern 1pt} ''({{x}_{k}})f({{x}_{k}})}}{{f{\kern 1pt} '({{x}_{k}})}}$ из (2.7) и (2.11) дает
(2.12)
$w_{k}^{2} - (1 - \gamma \phi ({{x}_{k}})){{w}_{k}} - (1 - {{\theta }_{k}})\gamma \phi ({{x}_{k}}) = O({{f}^{2}}({{x}_{k}})).$
Из (2.12) видно, что ${{w}_{k}}$ зависит от ${{\theta }_{k}}$. В силу (2.8) можно искать ${{w}_{k}}$ в виде
(2.13)
${{w}_{k}} = 1 - {{a}_{k}}{{\theta }_{k}} + O({{f}^{2}}({{x}_{k}})).$
Подставляя (2.13) в (2.12), имеем
(2.14)
${{\theta }_{k}}(\gamma {{\phi }_{k}} - {{a}_{k}}(1 + \gamma {{\phi }_{k}})) = O({{f}^{2}}({{x}_{k}})),\quad {{\phi }_{k}} = \phi ({{x}_{k}}).$
Из (2.14) следует, что
(2.15)
${{a}_{k}} = \frac{{\gamma {{\phi }_{k}}}}{{1 + \gamma {{\phi }_{k}}}} + O(f({{x}_{k}})).$
Подставляя (2.15) в (2.13), имеем
(2.16)
${{w}_{k}} = 1 - \frac{{\gamma {{\phi }_{k}}}}{{1 + \gamma {{\phi }_{k}}}}{{\theta }_{k}} + O({{f}^{2}}({{x}_{k}})).$
С другой стороны, разложение Тейлора функции $f({{x}_{{k + 1}}})$ дает
(2.17)
$f({{x}_{{k + 1}}}) = (1 - \frac{{f{\kern 1pt} '({{y}_{k}})}}{{{{\phi }_{k}}}}{{\bar {\tau }}_{k}})f({{y}_{k}}) + O(f{{({{y}_{k}})}^{2}}).$
В силу (2.1a) имеем
(2.18)
$f{\kern 1pt} '({{y}_{k}}) = f{\kern 1pt} '({{x}_{k}})(1 - \frac{{f{\kern 1pt} ''({{x}_{k}})f({{x}_{k}})}}{{f{\kern 1pt} '({{x}_{k}})\phi ({{x}_{k}})}}) + O({{f}^{2}}({{x}_{k}})).$
Исключение члена $\tfrac{{f{\kern 1pt} ''({{x}_{k}})f({{x}_{k}})}}{{f{\kern 1pt} '({{x}_{k}})\phi ({{x}_{k}})}}$ из (12) и (19) дает
(2.19)
$f{\kern 1pt} '({{y}_{k}}) = - f{\kern 1pt} '({{x}_{k}})\frac{{{{w}_{k}} + 2({{\theta }_{k}} - 1)}}{{{{w}_{k}}}} + O({{f}^{2}}({{x}_{k}})).$
Подставляя ${{w}_{k}}$, из (2.16) в (2.19) и используя известное разложение
(2.20)
$\frac{1}{{1 - x}} = 1 + x + {{x}^{2}} + {{x}^{3}} + \ldots ,\quad {\text{|}}x{\text{|}} < 1,$
получаем
(2.21)
$f{\kern 1pt} '({{y}_{k}}) = f{\kern 1pt} '({{x}_{k}})\left( {1 - \frac{2}{{1 + \gamma {{\phi }_{k}}}}{{\theta }_{k}}} \right) + O({{f}^{2}}({{x}_{k}})).$
Используя (2.21) в (2.17), имеем

(2.22)
$f({{x}_{{k + 1}}}) = (1 - (1 - {{\hat {d}}_{k}}{{\theta }_{k}}){{\bar {\tau }}_{k}})f({{y}_{k}}) + O(f{{({{y}_{k}})}^{2}}),\quad {{\hat {d}}_{k}} = \frac{{2 + \gamma {{\phi }_{k}}}}{{1 + \gamma {{\phi }_{k}}}}.$

Теперь можно доказать следующее:

Теорема 1. Пусть $f(x) \in {{C}^{3}}(I)$ и начальное приближение ${{x}_{0}}$ достаточно близко к простому нулю $x{\kern 1pt} * \in I$ функции $f(x)$. Тогда итерационный метод (2.1) имеет четвертый порядок сходимости тогда и только тогда, когда параметр ${{\bar {\tau }}_{k}}$ в (2.1) удовлетворяет условию

(2.23)
${{\bar {\tau }}_{k}} = \frac{1}{{1 - {{{\hat {d}}}_{k}}{{\theta }_{k}}}} + O({{f}^{2}}({{x}_{k}})) = 1 + {{\hat {d}}_{k}}{{\theta }_{k}} + O({{f}^{2}}({{x}_{k}})).$

Доказательство. Предположим, что ${{\bar {\tau }}_{k}}$ в (2.1) удовлетворяет условию (2.23). Тогда

$1 - (1 - {{\hat {d}}_{k}}{{\theta }_{k}}){{\bar {\tau }}_{k}} = O({{f}^{2}}({{x}_{k}})),$
и $f({{y}_{k}}) = O({{f}^{2}}({{x}_{k}}))$ из-за (2.8). Следовательно, в силу (2.22), имеем
(2.24)
$f({{x}_{{k + 1}}}) = O(f{{({{x}_{k}})}^{4}}),$
т.е. порядок сходимости (2.1) равен $4$ при условии (2.23). Обратно, пусть метод (2.1) имеет четвертый порядок сходимости, то есть, (2.24) верно. Тогда из (2.24) и (2.22) следует, что $f({{y}_{k}}) = O({{f}^{2}}({{x}_{k}}))$ и $1 - (1 - {{\hat {d}}_{k}}{{\theta }_{k}}){{\bar {\tau }}_{k}} = O({{f}^{2}}({{x}_{k}}))$, т.е. ${{\bar {\tau }}_{k}}$ удовлетворяет условию (2.23).

Итерационный метод (2.4) использует на каждом шаге итерации значения $f({{x}_{k}}),f({{y}_{k}})$ и $\phi ({{x}_{k}})$, поэтому он оптимален в смысле гипотезы КунгТрауба. Второй шаг в (2.1) можно переписать как

(2.25)
${{x}_{{k + 1}}} = {{x}_{k}} - {{\tau }_{k}}\frac{{f({{x}_{k}})}}{{\phi ({{x}_{k}})}},$
где
(2.26)
${{\tau }_{k}} = 1 + {{\bar {\tau }}_{k}}{{\theta }_{k}} = 1 + {{\theta }_{k}} + {{\hat {d}}_{k}}\theta _{k}^{2} + O({{f}^{3}}({{x}_{k}})).$
Если $\phi ({{x}_{k}},\gamma ) = f{\kern 1pt} '({{x}_{k}}),\;\gamma \to 0$, то ${{w}_{k}} = 1$ и формулы (2.23) и (2.26) принимают вид
$\begin{gathered} {{{\bar {\tau }}}_{k}} = 1 + 2{{\theta }_{k}} + O({{f}^{2}}({{x}_{k}})), \\ {{\tau }_{k}} = 1 + {{\theta }_{k}} + 2\theta _{k}^{2} + O({{f}^{3}}({{x}_{k}})) \\ \end{gathered} $
соответственно. Итак, итерация (2.1) имеет вид
(2.27)
и является оптимальной двухточечной итерацией четвертого порядка [6]. Как и в [5], метод производящих функций применим также для построения новых итераций (2.1). Конечно, имеются различные варианты производящих функций ${{\bar {\tau }}_{k}} = H({{\theta }_{k}})$, удовлетворяющих условиям
(2.28)
$H(0) = 1,\quad H{\kern 1pt} '(0) = {{\hat {d}}_{k}}.$
Здесь рассматривается одна простая форма
(2.29)
$H(x) = \frac{{c + ({{{\hat {d}}}_{k}}c + d)x + \omega {{x}^{2}}}}{{c + dx + b{{x}^{2}}}},\quad c + d + b \ne 0,\quad c,d,b,\omega \in R.$
Теперь рассмотрим некоторые интересные случаи $H$.

1. Пусть $c = 1$, $d = \beta - 2$, $b = \omega = 0$ в (2.29). Тогда получим

$H(x) = \frac{{1 + \left( {\beta - \frac{{\gamma {{\phi }_{k}}}}{{1 + \gamma {{\phi }_{k}}}}} \right)x}}{{1 + (\beta - 2)x}}.$
Итерация (2.1) с выбором ${{\bar {\tau }}_{k}} = H({{\theta }_{k}})$ имеет вид
(2.30)
${{y}_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{\phi ({{x}_{k}})}},\quad {{x}_{{k + 1}}} = {{y}_{k}} - \frac{{1 + \left( {\beta - \frac{{\gamma {{\phi }_{k}}}}{{1 + \gamma {{\phi }_{k}}}}} \right){{\theta }_{k}}}}{{1 + (\beta - 2){{\theta }_{k}}}}\frac{{f({{y}_{k}})}}{{\phi ({{x}_{k}})}}.$
Когда $\gamma \to 0$, итерация (2.30) дает хорошо известный метод Кинга. Назовем итерацию (2.30) конечно-разностным (КР) вариантом метода Кинга.

2. Пусть $c = b = 1$, $d = - 2$ и $\omega = 0$ в (2.29). Тогда получим

$H(x) = \frac{{1 - \frac{{\gamma {{\phi }_{k}}}}{{1 + \gamma {{\phi }_{k}}}}x}}{{{{{(1 - x)}}^{2}}}}.$
Итерация (2.1) с таким выбором ${{\bar {\tau }}_{k}} = H({{\theta }_{k}})$ имеет вид
(2.31)
При $\gamma \to 0$ итерация (2.31) дает хорошо известный метод четвертого порядка метода Кунга–Трауба. По этой причине назовем итерацию (2.31) КР-вариантом метода Кунга–Трауба.

3. Пусть $c = 1$, $\omega = d = - 1$ и $b = 0$ в (2.29). Тогда получим

$H(x) = \frac{{1 + \frac{1}{{1 + \gamma {{\phi }_{k}}}}x - {{x}^{2}}}}{{1 - x}}.$
Итерация (2.1) с таким выбором ${{\bar {\tau }}_{k}} = H({{\theta }_{k}})$ имеет вид
(2.32)
${{y}_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{\phi ({{x}_{k}})}},\quad {{x}_{{k + 1}}} = {{y}_{k}} - \frac{{1 + \frac{1}{{1 + \gamma {{\phi }_{k}}}}{{\theta }_{k}} - \theta _{k}^{2}}}{{1 - {{\theta }_{k}}}}\frac{{f({{y}_{k}})}}{{\phi ({{x}_{k}})}}.$
Когда $\gamma \to 0$, итерация (2.32) дает метод Махешвари. По этой причине назовем итерацию (2.32) КР-вариантом метода Махешвари.

Следует отметить, что авторами статьи [30] была сделана попытка распространить методы Кунга и Трауба на варианты, не содержащие производные. Но полученный в [30] метод отличается от наших расширений (2.30) и (2.31).

Таким образом, используя метод производящих функций, получаем широкий класс оптимальных двухточечных методов без производных (2.1) с ${{\bar {\tau }}_{k}} = H({{\theta }_{k}})$, заданным формулой (2.29). Этот класс включает пять параметров $(\gamma ,c,d,b,\omega )$. Коэффициенты в (2.29) могут зависеть от номера итераций $k$. Следует отметить, что многие двухточечные методы, не содержащие производные, были построены в [1], [2], [7], [14]–[18]. Наш класс итераций (2.1) с параметром ${{\bar {\tau }}_{k}}$, заданный по формуле (2.29), содержит некоторые хорошо известные итерации как частные случаи. В табл. 1 перечислены некоторые из них. Только ${{\bar {\tau }}_{k}}$ в методе Рен и др. [16], [34] не принадлежит классу $H({{\theta }_{k}})$, заданному по формуле (2.29). Таким образом, можно считать, что наше семейство (2.1) с параметром, заданным по формуле (2.29), является существенным обобщением методов, предложенных в работах [2], [7], [9], [11]–[18], [20]–[23], [26], [27].

Таблица 1.  

Итерационные методы

Методы $\mathop {\bar {\tau }}\nolimits_k $ Частные случаи H, заданные (30)
1. Методы, заданные в [18], [20] и $h(t,s) = (1 + t)(1 + s)$ [2], $P1$ в [21] $1 + {{\hat {d}}_{k}}{{\theta }_{k}}$ $c \ne 0,$$d = b = \omega = 0$
2. Методы, заданные в [10], [12], [15] и $h(t,s) = \tfrac{1}{{1 - t - s}}$ [2] CTM в [15] $\tfrac{1}{{1 - {{{\hat {d}}}_{k}}{{\theta }_{k}}}}$ $c = 1,$$d = - {{\hat {d}}_{k}},$$b = \omega = 0$
3. $h(t,s) = \tfrac{{1 + t}}{{1 - s}}$ [2], [34] $\tfrac{{1 + \gamma {{\phi }_{k}} + ({{{\hat {d}}}_{k}}(1 + \gamma {{\phi }_{k}}) - 1){{\theta }_{k}}}}{{1 + \gamma {{\phi }_{k}} - {{\theta }_{k}}}}$ $c = 1 + \gamma {{\varphi }_{k}},$$d = - 1,$$b = \omega = 0$
4. Методы, заданные в [7] $\tfrac{{1 + {{\phi }_{k}} + ({{{\hat {d}}}_{k}}(1 + {{\phi }_{k}}) - (2 - {{\phi }_{k}})){{\theta }_{k}}}}{{1 + {{\phi }_{k}} - (2 + {{\phi }_{k}}){{\theta }_{k}}}}$ $c = 1 + {{\varphi }_{k}},$$d = - (2 + {{\varphi }_{k}}),$$b = - 1,$$\omega = 0$
5. Семейство Чебышев-Халли [9] $\tfrac{{1 + \left( {{{{\hat {d}}}_{k}} - \left( {2\alpha + \tfrac{1}{{1 + \gamma {{\phi }_{k}}}}} \right)} \right){{\theta }_{k}} + \omega \theta _{k}^{2}}}{{1 - \left( {2\alpha + \tfrac{1}{{1 + \gamma {{\phi }_{k}}}}} \right){{\theta }_{k}} + \tfrac{{2\alpha }}{{1 + \gamma {{\phi }_{k}}}}\theta _{k}^{2}}}$ $c = 1,$$d = - \left( {2\alpha + \tfrac{1}{{1 + \gamma {{\phi }_{k}}}}} \right),$$b = \tfrac{{2\alpha }}{{1 + \gamma {{\phi }_{k}}}},$$\omega = H({{\theta }_{k}})$
6. Метод Кунг-Трауба и метод в [11] $\tfrac{1}{{1 - {{d}_{k}}{{\theta }_{k}} + \tfrac{1}{{1 + \gamma {{\phi }_{k}}}}\theta _{k}^{2}}}$ $c = 1,$$d = - {{\hat {d}}_{k}},$$b = \tfrac{1}{{1 + \gamma {{\phi }_{k}}}},$$\omega = 0$
7. Метод Потра–Птака [13], [22] $1 + {{d}_{k}}{{\theta }_{k}} + \tfrac{{{{d}_{k}}a}}{2}\theta _{k}^{2}$ $c = 1,$$d = b = 0,$$\omega = \tfrac{{{{{\hat {d}}}_{k}}a}}{2}$
8. Метод типа Кинга [23] $\tfrac{{1 + (\gamma - 1){{\theta }_{k}} - \gamma \theta _{k}^{2}}}{{1 + \left( {\gamma - 2 - \tfrac{1}{{1 - \beta {{\phi }_{k}}}}} \right){{\theta }_{k}} + \tfrac{{\gamma - 2}}{{1 - \beta {{\phi }_{k}}}}\theta _{k}^{2}}}$ $c = 1,$$d = \gamma - 2 - \tfrac{1}{{1 - \beta {{\phi }_{k}}}},$$b = \tfrac{{2 - \gamma }}{{1 - \beta {{\phi }_{k}}}},$$a = - \gamma $
9. Методы, заданные в [17] $\tfrac{{1 - \tfrac{{\gamma {{\phi }_{k}}}}{{1 + \gamma {{\phi }_{k}}}}{{\theta }_{k}}}}{{1 - 2{{\theta }_{k}} + \theta _{k}^{2}}}$ $c = b = 1,$$d = - 2,$$\omega = 0$
10. Методы, заданные в [16] $\tfrac{1}{{1 - {{{\hat {d}}}_{k}}{{\theta }_{k}} + a\tfrac{{1 + {{\phi }_{k}}}}{{{{\phi }_{k}}}}{{f}^{2}}({{x}_{k}})}}$ не принадлежит к (30)
11. Методы $P2$, заданные в [21] $\tfrac{{1 + {{\theta }_{k}}}}{{1 - \tfrac{{{{\theta }_{k}}}}{{1 + \gamma {{\phi }_{k}}}}}}$ $c = 1,$$d = - \tfrac{1}{{1 + \gamma {{\phi }_{k}}}},$$b = \omega = 0$
12. Методы, заданные в [27] $\tfrac{{1 + {{\phi }_{k}} + 2{{\theta }_{k}}}}{{1 + {{\phi }_{k}} - {{\phi }_{k}}{{\theta }_{k}}}}$ $c = 1 + {{\phi }_{k}},$$d = - {{\phi }_{k}},$$b = \omega = 0$
13. Методы, заданные в [16] $1 + {{\hat {d}}_{k}}{{\theta }_{k}} + \left( {{{\alpha }_{1}} + \tfrac{{{{\alpha }_{2}}}}{{{{{(1 + \gamma {{\phi }_{k}})}}^{2}}}}} \right)\theta _{k}^{2}$ $c = 1,$$d\, = \,b\, = \,0,$$\omega \, = \,{{\alpha }_{1}}\, + \,\tfrac{{{{\alpha }_{2}}}}{{{{{(1 + \gamma {{\phi }_{k}})}}^{2}}}}$

Двухточечная итерация (2.1) содержит один свободный ненулевой параметр $\gamma $. Хорошо известно, что ускорение скорости сходимости достигается за счет подходящего варьирования свободного параметра на каждом шаге итерации $\gamma = {{\gamma }_{k}}$. Этот подход полезен при построении итераций высокого порядка с памятью, (см. [9], [22], [23], [25]). Теперь попытаемся найти оптимальный выбор свободного параметра с точки зрения точности. Рассмотрим разложение Тейлора функции $f({{\eta }_{k}}) = f({{x}_{k}} + \gamma f({{x}_{k}}))$ в окрестности ${{x}_{k}}$

(2.33)
$f({{\eta }_{k}}) = (1 + \gamma f{\kern 1pt} '({{x}_{k}}))f({{x}_{k}}) + \frac{{f{\kern 1pt} ''({{x}_{k}})}}{2}{{\gamma }^{2}}{{f}^{2}}({{x}_{k}}) + O({{f}^{3}}({{x}_{k}})).$
Отсюда ясно, что можно выбрать $\gamma $ переменным способом, таким как
(2.34)
${{\gamma }_{k}} = - \frac{1}{{f{\kern 1pt} '({{x}_{k}})}}.$
Тогда соотношение (2.33) принимает вид
(2.35)
$f({{\eta }_{k}}) = \frac{{f{\kern 1pt} ''({{x}_{k}})}}{2}\frac{{{{f}^{2}}({{x}_{k}})}}{{f'{{{({{x}_{k}})}}^{2}}}} + O({{f}^{3}}({{x}_{k}})),$
где
(2.36)
${{\eta }_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{f{\kern 1pt} '({{x}_{k}})}}.$
Следовательно, значение ${{\eta }_{k}}$, заданное по формуле (2.36), можно рассматривать как новое приближение лучше, чем ${{x}_{k}}$, в силу (2.35). С учетом (2.34) и (2.35) формулы (2.5) и (2.7) принимают вид
(2.37)
(2.38)
соответственно. Подставляя (2.38) в (2.37) и используя (2.35), получаем
(2.39)
$f({{y}_{k}}) = O({{f}^{3}}({{x}_{k}})).$
Пусть параметр ${{\bar {\tau }}_{k}}$ выбран по формуле
(2.40)
${{\bar {\tau }}_{k}} = \frac{1}{{1 - {{{\hat {d}}}_{k}}{{\theta }_{k}}}} = 1 + {{\hat {d}}_{k}}{{\theta }_{k}} + \hat {d}_{k}^{2}\theta _{k}^{2} + O({{f}^{3}}({{x}_{k}})).$
Затем, используя (2.39) и (2.40) в (2.22), получим
(2.41)
$f({{x}_{{k + 1}}}) = O(f{{({{x}_{k}})}^{6}}).$
Это означает, что выбор переменного параметра (2.34) существенно ускоряет двухточечный метод (2.1). Порядок сходимости увеличивается от $4$ до $6.$ В этом случае итерация (2.1) фактически является трехточечной, т.е.
(2.42)
${{\eta }_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{f{\kern 1pt} '({{x}_{k}})}},\quad {{y}_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{{{\phi }_{k}}}},\quad {{x}_{{k + 1}}} = {{y}_{k}} - {{\bar {\tau }}_{k}}\frac{{f({{y}_{k}})}}{{{{\phi }_{k}}}}.$
Если заменим ${{\gamma }_{k}} = - \tfrac{1}{{f{\kern 1pt} '({{x}_{k}})}} \approx - \tfrac{1}{{N_{3}^{'}({{x}_{k}})}}$, то получим двухточечные итерации с памятью (${{x}_{0}}$, ${{\gamma }_{0}}$ заданы). Тогда ${{\eta }_{0}} = {{x}_{0}} + {{\gamma }_{0}}f({{x}_{0}})$ и
(2.43)
$\begin{gathered} {{\gamma }_{k}} = - \frac{1}{{N_{3}^{'}({{x}_{k}})}},\quad {{\eta }_{k}} = {{x}_{k}} + {{\gamma }_{k}}f({{x}_{k}}),\quad k = 1,2\;, \ldots , \\ {{y}_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{{{\phi }_{k}}}},\quad {{x}_{{k + 1}}} = {{y}_{k}} - {{{\bar {\tau }}}_{k}}\frac{{f({{y}_{k}})}}{{{{\phi }_{k}}}},\quad {{\phi }_{k}} = \phi ({{x}_{k}},{{\gamma }_{k}}). \\ \end{gathered} $
Здесь через ${{N}_{3}}(t) = {{N}_{3}}(t,{{x}_{k}},{{x}_{{k - 1}}},{{y}_{{k - 1}}},{{\eta }_{{k - 1}}})$ обозначен интерполяционный многочлен Ньютона третьей степени, заданный через узловые точки ${{x}_{k}}$, ${{x}_{{k - 1}}}$, ${{y}_{{k - 1}}}$, ${{\eta }_{{k - 1}}}$ [9], [23]. Очевидно, что $R$-порядок методов (2.43) равен, по крайне мере, шести.

Следует упомянуть, что иногда использовались несимметричные итерации, не содержащие производные, требующие дополнительных вычислений. Например, в [33] были предложены оптимальные итерационные семейства методов типа Кинга

(2.44)
$\begin{gathered} {{y}_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{{{\phi }_{k}}}},\quad {{\phi }_{k}} = f[{{x}_{k}},{{\eta }_{k}}],\quad {{\eta }_{k}} = {{x}_{k}} + \gamma f({{x}_{k}}), \\ {{x}_{{k + 1}}} = {{y}_{k}} - \frac{{f({{y}_{k}})}}{{f[{{y}_{k}},{{\eta }_{k}}]}}\frac{{1 + \beta {{\theta }_{k}}}}{{1 + (\beta - 1){{\theta }_{k}}}}, \\ \end{gathered} $
где $f[{{x}_{k}},{{\eta }_{k}}]$ – первая разделенная разность. Второй подшаг в (2.44) можно переписать как
(2.45)
${{x}_{{k + 1}}} = {{y}_{k}} - {{\bar {\tau }}_{k}}\frac{{f({{y}_{k}})}}{{{{\phi }_{k}}}},$
где
(2.46)
${{\bar {\tau }}_{k}} = \frac{{1 + \beta {{\theta }_{k}}}}{{1 + (\beta - {{{\hat {d}}}_{k}}){{\theta }_{k}} - \frac{{(\beta - 1)\theta _{k}^{2}}}{{1 + \gamma {{\phi }_{k}}}}}},$
т.е. в этом случае ${{\bar {\tau }}_{n}}$, определяется более сложной формулой, чем в (2.30). Более того, при $\gamma \to 0$, имеем
${{\bar {\tau }}_{k}} \to \frac{{1 + \beta {{\theta }_{k}}}}{{1 + (\beta - 2){{\theta }_{k}} - (\beta - 1)\theta _{k}^{2}}},$
в то время как
${{\bar {\tau }}_{k}} \to \frac{{1 + \beta {{\theta }_{k}}}}{{1 + (\beta - 2){{\theta }_{k}}}},$
в (2.30). Второй пример КР-варианта оптимального семейства Хансена–Патрика, предложенный в [32], можно записать в виде
(2.47)
$\begin{gathered} {{y}_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{{{\phi }_{k}} + \lambda f({{\eta }_{k}})}},\quad {{\eta }_{k}} = {{x}_{k}} + \gamma f({{x}_{k}}),\quad \gamma ,\lambda \in R{\backslash }\{ 0\} , \\ {{x}_{{k + 1}}} = {{y}_{k}} - \frac{{f({{y}_{k}})}}{{f[{{y}_{k}},{{\eta }_{k}}] + \lambda f({{\eta }_{k}})}}{{{\bar {\tau }}}_{k}}, \\ \end{gathered} $
где
(2.48)
$\begin{gathered} {{{\bar {\tau }}}_{k}} = \frac{1}{{{{\theta }_{k}}}}\left( { - 1 + \frac{{\alpha + 1}}{{\alpha + \sqrt {1 - 2(\alpha + 1){{\theta }_{k}}} }}} \right)H({{\theta }_{k}}),\quad \alpha \ne - 1, \\ H(0) = 1,\quad H{\kern 1pt} '(0) = - \frac{{\alpha + 1}}{2},\quad {\text{|}}H{\kern 1pt} ''(0){\text{|}} < \infty . \\ \end{gathered} $
Устраняя несимметричность в (2.47), рассмотрим следующие итерации:
(2.49)
$\begin{gathered} {{y}_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{{{\phi }_{k}} + \lambda f({{\eta }_{k}})}}, \\ {{x}_{{k + 1}}} = {{y}_{k}} - \frac{{f({{y}_{k}})}}{{{{\phi }_{k}} + \lambda f({{\eta }_{k}})}}{{{\bar {\tau }}}_{k}}, \\ \end{gathered} $
где, как и раньше, ${{\bar {\tau }}_{k}}$, определяется по формуле (2.48). Легко доказывается

Теорема 2. Пусть $f(x) \in {{C}^{3}}(I)$ и имеет простой нуль $x{\kern 1pt} * \in I.$ Если начальное приближение ${{x}_{0}}$ достаточно близко к $x{\kern 1pt} * \in I$, то итерационный метод (2.49) имеет оптимальную сходимость четвертого порядка, когда

(2.50)
$H(0) = 1,\quad H{\kern 1pt} '(0) = {{\hat {d}}_{k}} - \frac{{\alpha + 3}}{2},\quad {\text{|}}H{\kern 1pt} ''(0){\text{|}} < \infty .$

Доказательство. Предположим, что $H(0) = a,\quad H{\kern 1pt} '(0) = b.$ Тогда из (2.48) получаем

$\begin{gathered} {{{\bar {\tau }}}_{k}} = \left( {1 + \frac{{\alpha + 3}}{2}{{\theta }_{k}} + \left( {\frac{{{{{(\alpha + 1)}}^{2}}}}{2} + \alpha + 2} \right)\theta _{k}^{2} + \cdots } \right)(a + b{{\theta }_{k}} + O({{f}^{2}}({{x}_{k}}))) = \\ = \;a + \left( {\frac{{\alpha + 3}}{2}a + b} \right){{\theta }_{k}} + O({{f}^{2}}({{x}_{k}})). \\ \end{gathered} $
Сравнение последнего с достаточным условием сходимости (2.23), дает
$a = 1,\quad \frac{{\alpha + 3}}{2} + b = {{\hat {d}}_{k}} \to b = {{\hat {d}}_{k}} - \frac{{\alpha + 3}}{2}.$
Следовательно, по теореме 1 итерация (2.49) имеет четвертый порядок сходимости при условии (2.50).

3. ТРЕХТОЧЕЧНЫЕ ИТЕРАЦИОННЫЕ МЕТОДЫ, НЕ СОДЕРЖАЩИЕ ПРОИЗВОДНЫЕ

Рассмотрим трехточечные методы, не содержащие производные,

(3.1)
${{y}_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{\phi ({{x}_{k}})}},\quad {{z}_{k}} = {{y}_{k}} - {{\bar {\tau }}_{k}}\frac{{f({{y}_{k}})}}{{\phi ({{x}_{k}})}},\quad {{x}_{{k + 1}}} = {{z}_{k}} - {{\alpha }_{k}}\frac{{f({{z}_{k}})}}{{\phi ({{x}_{k}})}},$
которые получаются из трехточечных методов в [6] заменой $f{\kern 1pt} '({{x}_{k}})$ на $\phi ({{x}_{k}})$. Отметим, что первые два шага в (3.1) определяют оптимальные двухточечные методы четвертого порядка, когда ${{\bar {\tau }}_{k}}$ задается формулой (2.23). Наша цель – найти ${{\alpha }_{k}}$, так чтобы порядок сходимости итераций (3.1) равнялся восьми. С этой целью используем разложение Тейлора $f({{x}_{{k + 1}}})$:
(3.2)
$\begin{gathered} f({{x}_{{k + 1}}}) = f({{z}_{k}}) - f'({{z}_{k}}){{\alpha }_{k}}\frac{{f({{z}_{k}})}}{{\phi ({{x}_{k}})}} + O(f{{({{z}_{k}})}^{2}}) = \\ = \left( {1 - {{\alpha }_{k}}\frac{{f{\kern 1pt} '({{z}_{k}})}}{{\phi ({{x}_{k}})}}} \right)f({{z}_{k}}) + O({{f}^{2}}({{z}_{k}})). \\ \end{gathered} $
Из последнего соотношения ясно, что
(3.3)
$f({{x}_{{k + 1}}}) = O({{f}^{8}}({{x}_{k}})),$
при условии
(3.4)
${{\alpha }_{k}} = \frac{{\phi ({{x}_{k}})}}{{f{\kern 1pt} '({{z}_{k}})}} + O({{f}^{4}}({{x}_{k}})).$
Теперь аппроксимируем $f{\kern 1pt} '({{z}_{k}})$ в (3.4), используя имеющиеся данные $f({{x}_{k}})$, $f({{y}_{k}})$, $f({{z}_{k}})$ и $\phi ({{x}_{k}})$, такие что
(3.5)
$f{\kern 1pt} '({{z}_{k}}) = {{a}_{k}}f({{x}_{k}}) + {{b}_{k}}f({{y}_{k}}) + {{c}_{k}}f({{z}_{k}}) + {{d}_{k}}\phi ({{x}_{k}}) + O(f{{({{x}_{k}})}^{4}}).$
Используя разложение Тейлора функции $f(x)$ в точке ${{z}_{k}}$, получим следующую систему:
(3.6)
$\begin{gathered} {{a}_{k}} + {{b}_{k}} + {{c}_{k}} = 0, \\ {{a}_{k}}{{w}_{k}} + {{b}_{k}}{{\gamma }_{k}} + {{d}_{k}} = 1, \\ {{a}_{k}}w_{k}^{2} + {{b}_{k}}\gamma _{k}^{2} + 2{{d}_{k}}\left( {{{w}_{k}} + \frac{1}{2}\gamma f({{x}_{k}})} \right) = 0, \\ {{a}_{k}}w_{k}^{3} + {{b}_{k}}\gamma _{k}^{3} + 3{{d}_{k}}\left( {w_{k}^{2} + {{w}_{k}}\gamma f({{x}_{k}}) + \frac{1}{3}{{\gamma }^{2}}{{f}^{2}}({{x}_{k}})} \right) = 0, \\ \end{gathered} $
где
(3.7)
${{w}_{k}} = {{x}_{k}} - {{z}_{k}},\quad {{\gamma }_{k}} = {{y}_{k}} - {{z}_{k}}.$
Система (3.6) имеет единственное решение
(3.8)
$\begin{gathered} {{c}_{k}} = - {{a}_{k}} - {{b}_{k}}, \\ {{d}_{k}} = 1 - {{a}_{k}}{{w}_{k}} - {{b}_{k}}{{\gamma }_{k}}, \\ {{b}_{k}} = \frac{{{{w}_{k}}({{w}_{k}} + \gamma f({{x}_{k}}))}}{{{{\gamma }_{k}}({{\gamma }_{k}} - {{w}_{k}})({{\gamma }_{k}} - {{w}_{k}} - \gamma f({{x}_{k}}))}}, \\ {{a}_{k}} = \frac{{{{\gamma }_{k}}}}{{{{w}_{k}}({{\gamma }_{k}} - {{w}_{k}})}}\frac{{({{w}_{k}} - {{\gamma }_{k}})(2{{w}_{k}} + \gamma f({{x}_{k}})) + {{{({{w}_{k}} + \gamma f({{x}_{k}}))}}^{2}}}}{{({{w}_{k}} + \gamma f({{x}_{k}}))({{w}_{k}} - {{\gamma }_{k}} + \gamma f({{x}_{k}}))}}. \\ \end{gathered} $
Подставляя (3.8) в (3.5), получаем
(3.9)
$f{\kern 1pt} '({{z}_{k}}) = {{\phi }_{k}}(1 + {{a}_{k}}{{w}_{k}}\left( {\frac{{f[{{z}_{k}},{{x}_{k}}]}}{{{{\phi }_{k}}}} - 1} \right) + {{b}_{k}}{{\gamma }_{k}}\left( {\frac{{f[{{z}_{k}},{{y}_{k}}]}}{{{{\phi }_{k}}}} - 1} \right)) + O({{f}^{4}}({{x}_{k}})),$
где
${{\phi }_{k}} = \phi ({{x}_{k}}) = f[{{x}_{k}},{{\xi }_{k}}],\quad {{\xi }_{k}} = {{x}_{k}} + \gamma f({{x}_{k}}).$
Согласно (3.2) и (3.7), имеем
(3.10)
${{w}_{k}} = \frac{{f({{x}_{k}})}}{{{{\phi }_{k}}}}{{\tau }_{k}},\quad {{\gamma }_{k}} = ({{\tau }_{k}} - 1)\frac{{f({{x}_{k}})}}{{{{\phi }_{k}}}},\quad {{\gamma }_{k}} - {{w}_{k}} = - \frac{{f({{x}_{k}})}}{{{{\phi }_{k}}}} = {{y}_{k}} - {{x}_{k}},$
(3.11)
$\frac{{{{\gamma }_{k}}}}{{{{w}_{k}} - {{\gamma }_{k}}}} = \frac{{{{y}_{k}} - {{z}_{k}}}}{{{{x}_{k}} - {{y}_{k}}}} = {{\tau }_{k}} - 1 \to {{\tau }_{k}} = \frac{{{{x}_{k}} - {{z}_{k}}}}{{{{x}_{k}} - {{y}_{k}}}},$
(3.12)
${{w}_{k}} + \gamma {{f}_{k}} = \frac{{f({{x}_{k}})}}{{{{\phi }_{k}}}}({{\tau }_{k}} + \gamma {{\phi }_{k}}),\quad {{w}_{k}} - {{\gamma }_{k}} + \gamma f({{x}_{k}}) = \frac{{f({{x}_{k}})}}{{{{\phi }_{k}}}}(1 + \gamma {{\phi }_{k}}).$
Используя (3.10)–(3.12) в (3.8), получаем
(3.13)
${{b}_{k}}{{\gamma }_{k}} = \frac{{{{\tau }_{k}}({{\tau }_{k}} + \gamma {{\phi }_{k}})}}{{1 + \gamma {{\phi }_{k}}}},\quad {{a}_{k}}{{w}_{k}} = (1 - {{\tau }_{k}})\frac{{2{{\tau }_{k}} + \gamma {{\phi }_{k}} + {{{({{\tau }_{k}} + \gamma {{\phi }_{k}})}}^{2}}}}{{({{\tau }_{k}} + \gamma {{\phi }_{k}})(1 + \gamma {{\phi }_{k}})}}.$
Подставляя (3.9) в (3.4) и пренебрегая малым членом $O({{f}^{4}}({{x}_{k}}))$, находим
(3.14)
${{\alpha }_{k}} = \frac{1}{{1 + {{a}_{k}}{{w}_{k}}\left( {\frac{{f[{{z}_{k}},{{x}_{k}}]}}{{{{\phi }_{k}}}} - 1} \right) + {{b}_{k}}{{\gamma }_{k}}\left( {\frac{{f[{{z}_{k}},{{y}_{k}}]}}{{{{\phi }_{k}}}} - 1} \right)}},$
где ${{a}_{k}}{{w}_{k}}$ и ${{b}_{k}}{{\gamma }_{k}}$ определяются формулой (3.13). Выражения в круглых скобках в (3.14) можно переписать в терминах вторых разделенных разностей как:
(3.15)
$\frac{{f[{{z}_{k}},{{x}_{k}}]}}{{{{\phi }_{k}}}} - 1 = \frac{1}{{{{\phi }_{k}}}}f[{{z}_{k}},{{x}_{k}},{{\xi }_{k}}]({{z}_{k}} - {{\xi }_{k}}) = - \frac{{f({{x}_{k}})}}{{\phi _{k}^{2}}}f[{{z}_{k}},{{x}_{k}},{{\xi }_{k}}]({{\tau }_{k}} + \gamma {{\phi }_{k}}),$
(3.16)
$\frac{{f[{{z}_{k}},{{y}_{k}}]}}{{{{\phi }_{k}}}} - 1 = - \frac{{f({{x}_{k}})}}{{\phi _{k}^{2}}}(f[{{y}_{k}},{{z}_{k}},{{x}_{k}}] + f[{{z}_{k}},{{x}_{k}},{{\xi }_{k}}]({{\tau }_{k}} + \gamma {{\phi }_{k}})).$
Подставляя (3.13), (3.15) и (3.16) в (3.14), получаем другое представление для ${{\alpha }_{k}}$:
(3.17)
${{\alpha }_{k}} = \frac{1}{{1 - \frac{{f({{x}_{k}})}}{{\phi _{k}^{2}(1 + \gamma {{\phi }_{k}})}}{{F}_{k}}}},$
где ${{F}_{k}} = ({{\tau }_{k}}({{\tau }_{k}} + \gamma {{\phi }_{k}})f[{{y}_{k}},{{z}_{k}},{{x}_{k}}] + ((1 - {{\tau }_{k}})(2{{\tau }_{k}} + \gamma {{\phi }_{k}}) + {{({{\tau }_{k}} + \gamma {{\phi }_{k}})}^{2}})f[{{z}_{k}},{{x}_{k}},{{\xi }_{k}}])$.

Теперь найдем асимптотику для ${{\alpha }_{k}}$, заданную формулой (3.14). С этой целью используем следующие формулы

(3.18)
$\frac{{f[{{z}_{k}},{{x}_{k}}]}}{{{{\phi }_{k}}}} - 1 = - \frac{{({{{\bar {\tau }}}_{k}} + {{v}_{k}}){{\theta }_{k}}}}{{1 + {{{\bar {\tau }}}_{k}}{{\theta }_{k}}}},$
(3.19)
$\frac{{f[{{z}_{k}},{{y}_{k}}]}}{{{{\phi }_{k}}}} - 1 = \frac{{1 - {{{\bar {\tau }}}_{k}} - {{v}_{k}}}}{{{{{\bar {\tau }}}_{k}}}},\quad {{v}_{k}} = {{f({{z}_{k}})} \mathord{\left/ {\vphantom {{f({{z}_{k}})} {f({{y}_{k}})}}} \right. \kern-0em} {f({{y}_{k}})}},$
(3.20)
${{\tau }_{k}} = 1 + {{\bar {\tau }}_{k}}{{\theta }_{k}}.$
Аналогичным образом, формулу (3.13) можно также переписать в терминах ${{\bar {\tau }}_{k}}$, как (3.18) и (3.19). Принимая во внимание это и (3.18) и (3.19), можно переписать (3.14) как
(3.21)
${{\alpha }_{k}} = \frac{1}{{1 + \frac{{{{A}_{1}} + {{A}_{2}} + {{A}_{3}}{{\text{v}}_{k}}}}{{(1 + \gamma {{\phi }_{k}})(1 + \gamma {{\phi }_{k}} + {{{\bar {\tau }}}_{k}}{{\theta }_{k}})(1 + {{{\bar {\tau }}}_{k}}{{\theta }_{k}}){{{\bar {\tau }}}_{k}}}}}},$
где
(3.22a)
${{A}_{1}} = {{(1 + {{\theta }_{k}}{{\bar {\tau }}_{k}})}^{2}}{{(1 + \gamma {{\phi }_{k}} + {{\bar {\tau }}_{k}}{{\theta }_{k}})}^{2}}(1 - {{\bar {\tau }}_{k}}),$
(3.22b)
${{A}_{2}} = (2 + \gamma {{\phi }_{k}} + 2{{\bar {\tau }}_{k}}{{\theta }_{k}} + {{(1 + \gamma {{\phi }_{k}} + {{\bar {\tau }}_{k}}{{\theta }_{k}})}^{2}})\bar {\tau }_{k}^{3}\theta _{k}^{2},$
(3.22c)
$\begin{gathered} {{A}_{3}} = - {{(1 + {{\theta }_{k}}{{{\bar {\tau }}}_{k}})}^{2}}{{(1 + \gamma {{\phi }_{k}} + {{{\bar {\tau }}}_{k}}{{\theta }_{k}})}^{2}} + \\ + \;(2 + \gamma {{\phi }_{k}} + 2{{{\bar {\tau }}}_{k}}{{\theta }_{k}} + {{(1 + \gamma {{\phi }_{k}} + {{{\bar {\tau }}}_{k}}{{\theta }_{k}})}^{2}})\bar {\tau }_{k}^{2}\theta _{k}^{2}. \\ \end{gathered} $
Согласно (2.23), можем написать ${{\bar {\tau }}_{k}}$ как
(3.23)
${{\bar {\tau }}_{k}} = 1 + {{\hat {d}}_{k}}{{\theta }_{k}} + {{\tilde {\beta }}_{k}}\theta _{k}^{2} + {{\tilde {\gamma }}_{k}}\theta _{k}^{3} + \cdots ,$
где ${{\tilde {\beta }}_{k}}$ и ${{\tilde {\gamma }}_{k}}$ – некоторые константы. Тогда, по теореме 1, имеем
(3.24)
$f({{y}_{k}}) = O({{f}^{2}}({{x}_{k}})),\quad f({{z}_{k}}) = O({{f}^{4}}({{x}_{k}})),\quad {{v}_{k}} = O({{f}^{2}}({{x}_{k}})).$
Используя (3.23) и (3.24) в (3.22), получаем
(3.25)
${{A}_{1}} = - {{\theta }_{k}}{{(1 + \gamma {{\phi }_{k}})}^{2}}({{a}_{1}} + {{a}_{2}}{{\theta }_{k}} + {{a}_{3}}\theta _{k}^{2} + \cdots ),$
(3.26)
${{A}_{2}} = \theta _{k}^{2}{{(1 + \gamma {{\phi }_{k}})}^{2}}({{b}_{1}} + {{b}_{2}}{{\theta }_{k}} + \cdots ),$
(3.27)
${{A}_{3}} = - {{(1 + \gamma {{\phi }_{k}})}^{2}}({{c}_{1}} + {{c}_{2}}{{\theta }_{k}} + \cdots ),$
где
(3.28)
$\begin{gathered} {{a}_{1}} = {{{\hat {d}}}_{k}},\quad {{a}_{2}} = \tilde {\beta } + 2\hat {d}_{k}^{2},\quad {{a}_{3}} = \tilde {\gamma } + 2\tilde {\beta }{{{\hat {d}}}_{k}} + \left( {3\hat {d}_{k}^{2} + \frac{2}{{1 + \gamma {{\phi }_{k}}}}} \right){{{\hat {d}}}_{k}}, \\ {{b}_{1}} = 1 + \frac{{{{{\hat {d}}}_{k}}}}{{1 + \gamma {{\phi }_{k}}}},\quad {{b}_{2}} = {{{\hat {d}}}_{k}} - \hat {d}_{k}^{2} + 3\hat {d}_{k}^{3},\quad {{c}_{1}} = 1,\quad {{c}_{2}} = 2{{{\hat {d}}}_{k}}. \\ \end{gathered} $
Аналогично, имеем
(3.29)
$\frac{1}{{\left( {1 + \frac{{{{{\bar {\tau }}}_{k}}{{\theta }_{k}}}}{{1 + \gamma {{\phi }_{k}}}}} \right)(1 + {{{\bar {\tau }}}_{k}}{{\theta }_{k}}){{{\bar {\tau }}}_{k}}}} = 1 - 2{{\hat {d}}_{k}}{{\theta }_{k}} + \left( {2\hat {d}_{k}^{2} - \tilde {\beta } - \frac{1}{{1 + \gamma {{\phi }_{k}}}}} \right)\theta _{k}^{2} + O({{f}^{3}}({{x}_{k}})).$
Тогда
$\begin{gathered} \frac{{{{A}_{1}} + {{A}_{2}} + {{A}_{3}}{{v}_{k}}}}{{(1 + \gamma {{\phi }_{k}})(1 + \gamma {{\phi }_{k}} + {{{\bar {\tau }}}_{k}}{{\theta }_{k}})(1 + {{{\bar {\tau }}}_{k}}{{\theta }_{k}}){{{\bar {\tau }}}_{k}}}} = \left( {1 - 2{{{\hat {d}}}_{k}}{{\theta }_{k}} + \left( {2\hat {d}_{k}^{2} - \tilde {\beta } - \frac{1}{{1 + \gamma {{\phi }_{k}}}}} \right)\theta _{k}^{2}} \right) \times \\ \times \;( - {{a}_{1}}{{\theta }_{k}} + ({{b}_{1}} - {{a}_{2}})\theta _{k}^{2} + ({{b}_{2}} - {{a}_{3}})\theta _{k}^{3} - ({{c}_{1}} + {{c}_{2}}{{\theta }_{k}}){{v}_{k}}) = \\ = - {{a}_{1}}{{\theta }_{k}} + ({{b}_{1}} - {{a}_{2}} + 2{{a}_{1}}{{{\hat {d}}}_{k}})\theta _{k}^{2} + \left( {\mathop {{{b}_{2}} - {{a}_{3}} - 2{{{\hat {d}}}_{k}}({{b}_{1}} - {{a}_{2}}) - }\limits_{} } \right. \\ - \;\left. {{{a}_{1}}\left( {2\hat {d}_{k}^{2} - \tilde {\beta } - \frac{1}{{1 + \gamma {{\phi }_{k}}}}} \right)} \right)\theta _{k}^{3} - ({{c}_{1}} + ({{c}_{2}} - 2{{c}_{1}}{{{\hat {d}}}_{k}}){{\theta }_{k}}){{v}_{k}} + O({{f}^{4}}({{x}_{k}})). \\ \end{gathered} $
Подставляя последнее выражение в (3.21) и используя известное разложение (2.20), получаем
$\begin{gathered} {{\alpha }_{k}} = 1 + {{a}_{1}}{{\theta }_{k}} - ({{b}_{1}} - {{a}_{2}} + 2{{a}_{1}}{{{\hat {d}}}_{k}})\theta _{k}^{2} + (2{{{\hat {d}}}_{k}}({{b}_{1}} - {{a}_{2}}) + {{a}_{1}}\left( {2\hat {d}_{k}^{2} - \tilde {\beta } - \frac{1}{{1 + \gamma {{\phi }_{k}}}}} \right) - ({{b}_{2}} - {{a}_{3}}))\theta _{k}^{3} + \\ + \;({{c}_{1}} + ({{c}_{2}} - 2{{c}_{1}}{{{\hat {d}}}_{k}}){{\theta }_{k}}){{v}_{k}} + a_{1}^{2}\theta _{k}^{2} - 2{{a}_{1}}({{b}_{1}} - {{a}_{2}} + 2{{a}_{1}}{{{\hat {d}}}_{k}})\theta _{k}^{3} + 2{{a}_{1}}{{c}_{1}}{{\theta }_{k}}{{v}_{k}} + a_{1}^{3}\theta _{k}^{3} + O({{f}^{4}}({{x}_{k}})) = \\ \end{gathered} $
$\begin{gathered} = 1 + {{a}_{1}}{{\theta }_{k}} + \left( {a_{1}^{2} - ({{b}_{1}} - {{a}_{2}}) - 2{{a}_{1}}{{{\hat {d}}}_{k}}} \right)\theta _{k}^{2} + \left( {(a_{1}^{3} + 2{{{\hat {d}}}_{k}}({{b}_{1}} - {{b}_{2}}) + {{a}_{1}}\left( {2\hat {d}_{k}^{2} - \tilde {\beta } - \frac{1}{{1 + \gamma {{\phi }_{k}}}}} \right)} \right)\; - \\ - \;({{b}_{2}} - {{a}_{3}}) - 2{{a}_{1}}({{b}_{1}} - {{a}_{2}} + 2{{a}_{1}}{{{\hat {d}}}_{k}}))\theta _{k}^{3} + ({{c}_{1}} + ({{c}_{2}} - 2{{c}_{1}}{{{\hat {d}}}_{k}}){{\theta }_{k}}){{v}_{k}} + O({{f}^{4}}({{x}_{k}})), \\ \end{gathered} $
или
(3.30)
${{\alpha }_{k}} = 1 + {{\hat {d}}_{k}}{{\theta }_{k}} + \left( {\tilde {\beta } + \frac{1}{{1 + \gamma {{\phi }_{k}}}}} \right)\theta _{k}^{2} + \left( {\tilde {\gamma } + {{{\hat {d}}}_{k}}\tilde {\beta } - {{{\hat {d}}}_{k}} - \frac{{{{{\hat {d}}}_{k}}}}{{{{{(1 + \gamma {{\phi }_{k}})}}^{2}}}}} \right)\theta _{k}^{3} + (1 + 2{{\hat {d}}_{k}}{{\theta }_{k}}){{v}_{k}} + O({{f}^{4}}({{x}_{k}})).$
Когда $\gamma \to 0$, формула (3.30) сводится к виду
(3.31)
${{\alpha }_{k}} = 1 + 2{{\theta }_{k}} + (\tilde {\beta } + 1)\theta _{k}^{2} + (\tilde {\gamma } + 2\tilde {\beta } - 4)\theta _{k}^{3} + (1 + 4{{\theta }_{k}}){{v}_{k}} + O({{f}^{4}}({{x}_{k}})),$
который является асимптотикой ${{\alpha }_{k}}$ в трехточечных итерационных методах [6].

Теорема 3. Пусть выполнены все предположения Теоремы 1. Тогда трехточечные итерационные методы (3.1) имеют 8-й порядок сходимости тогда и только тогда, когда итерационные параметры ${{\bar {\tau }}_{k}}$ и ${{\alpha }_{k}}$ задаются формулами (3.23) и (3.30) соответственно.

Доказательство. Пусть ${{\bar {\tau }}_{k}}$ и ${{\alpha }_{k}}$ задаются формулами (3.23) и (3.30) соответственно. Тогда, по теореме 1, первые два шага в (3.1) определяют оптимальный метод четвертого порядка, т.е. $f({{z}_{k}}) = O({{f}^{4}}({{x}_{k}}))$. А значение ${{\alpha }_{k}}$, заданное формулой (3.30), удовлетворяет условию (3.4). Следовательно, справедливо соотношение (3.3). Обратно, предположим, что порядок сходимости итерации (3.1) равен 8. Тогда из (3.1) и (3.3) следует, что $f({{z}_{k}}) = O({{f}^{4}}({{x}_{k}}))$ и формула (3.4). Поэтому, по теореме 1, формула (3.23) верна с некоторыми константами $\tilde {\gamma }$ и $\tilde {\beta }$. Используя аппроксимацию (3.9) в (3.4), получаем (3.14) с точностью $O({{f}^{4}}({{x}_{k}}))$. Так как (3.23) верно, то из (3.14) приходим к асимптотике (3.30).

Предположим в (3.1)

(3.32)
${{\bar {\tau }}_{k}} = H({{\theta }_{k}}) = \frac{{c + ({{{\hat {d}}}_{k}}c + d){{\theta }_{k}} + \omega \theta _{k}^{2}}}{{c + d{{\theta }_{k}} + b\theta _{k}^{2}}},\quad c + d + b \ne 0,\quad c,d,b,\omega \in R,$
(3.33)
${{\alpha }_{k}} = H({{\theta }_{k}}) + \frac{1}{{1 + \gamma {{\phi }_{k}}}}\theta _{k}^{2} + {{\hat {d}}_{k}}\left( {\tilde {\beta } - \frac{2}{{1 + \gamma {{\phi }_{k}}}}} \right)\theta _{k}^{3} + (1 + 2{{\hat {d}}_{k}}{{\theta }_{k}}){{v}_{k}}.$
Тогда получаем семейство оптимальных трехточечных итераций, не содержащих производные, так как ${{\bar {\tau }}_{k}}$ и ${{\alpha }_{k}}$, заданные формулами (2.23) и (3.33), удовлетворяют условиям (3.23) и (3.30) с константами
$\tilde {\beta } = \frac{{\omega - b}}{c} - \frac{d}{c}\left( {\frac{d}{c} + {{{\hat {d}}}_{k}}} \right),\quad \tilde {\gamma } = - \frac{{(b + \omega )d}}{{{{c}^{2}}}} + \frac{{{{d}^{2}} - bc}}{{{{c}^{2}}}}{{\hat {d}}_{k}}$
соответственно. Таким образом, метод производящих функций [5] позволяет построить семейство оптимальных трехточечных итераций.

Теперь рассмотрим следующие трехточечные итерации:

(3.34)
$\begin{gathered} {{\eta }_{k}} = {{x}_{k}} + \gamma f({{x}_{k}}),\quad {{y}_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{f[{{x}_{k}},{{\eta }_{k}}]}},\quad {{z}_{k}} = {{\psi }_{4}}({{x}_{k}},{{y}_{k}},{{\eta }_{k}}), \\ {{x}_{{k + 1}}} = {{z}_{k}} - \frac{{f({{z}_{k}})}}{{f[{{z}_{k}},{{y}_{k}}] + ({{z}_{k}} - {{y}_{k}})f[{{z}_{k}},{{y}_{k}},{{x}_{k}}] + ({{z}_{k}} - {{y}_{k}})({{z}_{k}} - {{x}_{k}})f[{{z}_{k}},{{y}_{k}},{{x}_{k}},{{\eta }_{k}}]}}. \\ \end{gathered} $
Здесь функция ${{\psi }_{4}}$ берется из любого оптимального метода четвертого порядка, не содержащего производные, и $f[{{z}_{k}},{{y}_{k}},{{x}_{k}},{{\eta }_{k}}]$ – третья разделенная разность. Из теоремы 2 следует

Теорема 4. Пусть выполнены все предположения теоремы 1. Тогда порядок сходимости итерации (3.34) равен 8.

Доказательство. Так как ${{\psi }_{4}}$ – итерация четвертого порядка, то ${{z}_{k}}$ можно переписать как

${{z}_{k}} = {{y}_{k}} - {{\bar {\tau }}_{k}}\frac{{f({{y}_{k}})}}{{\phi ({{x}_{k}})}},\quad \phi ({{x}_{k}}) = f[{{x}_{k}},{{\eta }_{k}}].$
По теореме 1 имеем ${{\bar {\tau }}_{k}} = 1 + {{\hat {d}}_{k}}{{\theta }_{k}} + O({{f}^{2}}({{x}_{k}}))$. Это означает, что верно разложение Тейлора ${{\bar {\tau }}_{k}}$ (3.23). Если сравнить (3.1) с (3.34), то можно записать
(3.35)
${{\alpha }_{k}} = \frac{{{{\phi }_{k}}}}{{f[{{z}_{k}},{{y}_{k}}] + ({{z}_{k}} - {{y}_{k}})f[{{z}_{k}},{{y}_{k}},{{x}_{k}}] + ({{z}_{k}} - {{y}_{k}})({{z}_{k}} - {{x}_{k}})f[{{z}_{k}},{{y}_{k}},{{x}_{k}},{{\eta }_{k}}]}}.$
Легко показать, что параметр ${{\alpha }_{k}}$, заданный формулой (3.35), удовлетворяет условию (3.30). Тогда согласно теореме 3, порядок сходимости (3.34) равен 8.

Замечание 1. Порядок сходимости трехточечных итераций, предложенных в [12], [22]–[24], сразу следует из теоремы 4. Теорема 4 является расширением теорем, приведенных в [12], [22]–[24].

Заметим, что все существующие оптимальные трехточечные методы, не содержащие производных, могут быть переписаны в виде (3.1) однозначно.

Легко проверить, что параметры ${{\bar {\tau }}_{k}}$ и ${{\alpha }_{k}}$ в этих методах имеют одинаковую асимптотику (3.23) и (3.30) с собственными константами $\tilde {\gamma }$ и $\tilde {\beta }$. Таким образом, сходимость всех существующих оптимальных трехточечных методов, не содержащих производные, может быть доказана с использованием достаточных критериев сходимости (3.23) и (3.30) без использования символьных вычислений. Более того, применение этих достаточных условий сходимости позволяет в некоторых случаях построить новые оптимальные итерации [29]. Из табл. 1 видно, что параметр ${{\bar {\tau }}_{k}}$, входящий во всех перечисленных здесь оптимальных трехточечных методах, получается с помощью производящих функций $H({{\theta }_{k}})$, заданных формулой (3.32), за исключением метода, предложенного в [16]. Из (3.32) и (3.34) видно, что функция ${{\psi }_{4}}$ может содержать в себе некоторые свободные параметры. Это означает, что итерации (3.34) представляют широкий класс оптимальных трехточечных методов, не содержащих производные. Этот класс включает в себя многие из хорошо известных методов как частные случаи, см. [4]–[6], [9], [12]. Как и в предыдущем раз., можно варьировать $\gamma $ на каждом шаге итераций, используя информацию, полученную в предыдущем и настоящем шагах. Это позволяет увеличить порядок сходимости без использования дополнительных вычислений. А именно, получить трехточечные итерации с памятью (${{x}_{0}}$, ${{\gamma }_{0}}$ заданы). Тогда ${{\eta }_{0}} = {{x}_{0}} + {{\gamma }_{0}}f({{x}_{0}})$ и

(3.36)
$\begin{gathered} {{\gamma }_{k}} = - \frac{1}{{N_{4}^{'}({{x}_{k}})}},\quad {{\eta }_{k}} = {{x}_{k}} + {{\gamma }_{k}}f({{x}_{k}}),\quad k = 1,2,\; \ldots \\ {{y}_{k}} = {{x}_{k}} - \frac{{f({{x}_{k}})}}{{\phi ({{x}_{k}},{{\gamma }_{k}})}},\quad {{z}_{k}} = {{\psi }_{4}}({{x}_{k}},{{y}_{k}},{{\eta }_{k}}), \\ {{x}_{{k + 1}}} = {{z}_{k}} - \frac{{f({{z}_{k}})}}{{f[{{z}_{k}},{{y}_{k}}] + ({{z}_{k}} - {{y}_{k}})f[{{z}_{k}},{{y}_{k}},{{x}_{k}}] + ({{z}_{k}} - {{y}_{k}})({{z}_{k}} - {{x}_{k}})f[{{z}_{k}},{{y}_{k}},{{x}_{k}},{{\eta }_{k}}]}}. \\ \end{gathered} $
Здесь ${{N}_{4}}(t) = {{N}_{4}}(t,{{x}_{k}},{{z}_{{k - 1}}},{{y}_{{k - 1}}},{{\eta }_{{k - 1}}},{{x}_{{k - 1}}})$ – интерполяционный многочлен Ньютона четвертой степени, построенный на узловых точках ${{x}_{k}}$, ${{z}_{{k - 1}}}$, ${{y}_{{k - 1}}}$, ${{\eta }_{{k - 1}}}$, ${{x}_{{k - 1}}}$. Как в [9], легко доказать, что $R$ – порядок сходимости метода (3.36), по крайне мере, равен 12.

4. ЧИСЛЕННЫЕ ЭКСПЕРИМЕНТЫ

В этом разделе приведены результаты численных экспериментов для сравнения эффективности методов. Численные расчеты, представленные здесь, были выполнены в системе Maple. Чтобы получить очень высокую точность, избежать потери значимых цифр, вычисления проводились с 300 значащими десятичными цифрами. Численные эксперименты сделаны для гладкой и негладкой функций (см. табл. 2) и при $\gamma = - 0.01$. Для проверки сходимости итераций расчетный порядок сходимости (РПС) вычислялся с помощью формулы

$p \approx \frac{{ln({\text{|}}{{x}_{k}} - x{\kern 1pt} *{\text{|/|}}{{x}_{{k - 1}}} - x{\kern 1pt} *{\text{|}})}}{{ln({\text{|}}{{x}_{{k - 1}}} - x{\kern 1pt} *{\text{|}}/{\text{|}}{{x}_{{k - 2}}} - x{\kern 1pt} *{\text{|}})}},$
где ${{x}_{k}}$, ${{x}_{{k - 1}}}$, ${{x}_{{k - 2}}}$ – три последовательных приближения. Итерации завершаются при условии ${\text{|}}{{x}_{k}} - x{\kern 1pt} *{\text{|}} < {{10}^{{ - 30}}}$.

Таблица 2.  

Нелинейные функции

Функции Корень
1. ${{f}_{1}}(x) = {{e}^{{({{x}^{2}} + xcosx - 1)}}}sinx + xlog(xsinx + 1)$, [9] $x* = 0$
2. ${{f}_{2}}(x) = log({{x}^{2}} - 2x + 2) + {{e}^{{({{x}^{2}} - 5x + 4)}}}sin(x - 1)$, $x* = 1$
3. ${{f}_{3}}(x) = \left\{ \begin{gathered} x(x + 1),\quad {\text{е с л и }}\quad x < 0, \hfill \\ - 2x(x - 1),\quad {\text{е с л и }}\quad x \geqslant 0, \hfill \\ \end{gathered} \right.$ [7, 32] $x* = 0$
$x* = 1$
$x* = - 1$
4. ${{f}_{4}}(x) = \left| {{{x}^{2}} - 4} \right|$, [9] $x* = \pm 2$

В табл. 2 приведены примеры, взятые из [9]. Третий пример с негладкой функцией (см. [7], [14], [32]) часто используется для проверки работоспособности итераций, не содержащих производных. В табл. 3–6 приведены числа итераций $(k)$, абсолютные погрешности ${\text{|}}{{x}_{k}} - x{\kern 1pt} *{\text{|}}$ и РПС для выборных методов при $\gamma = - 0.01$. Численные результаты подтверждают теоретический вывод о порядке сходимости. Из табл. 6 видно, что методы высокого порядка сходимости устойчиво работают не только для достаточно гладкой функции, но и также для негладкой функций. Отметим, что первая производная нелинейной функции ${{f}_{3}}(x)$ терпит разрыв в точке $x* = 0$, поэтому в этом случае РПС = 2 для всех предлагаемых методов (см. первую часть табл. 5, также [7]). Предлагаемые методы (3.34) могут быть успешно применены в расчетах, требующих высокую точность.

Таблица 3.  

Двухточечные итерационные методы

Методы $\mathop {\bar {\tau }}\nolimits_k $ k $\left| {x{\kern 1pt} {\text{*}} - {{x}_{k}}} \right|$ РПС
Численные результаты для гладкой функции ${{f}_{1}}(x)$ при ${{x}_{0}} = 1$
(2.1) $c = 1,\;d = - {{\hat {d}}_{k}},\;b = - \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;\omega = 0$ 4 0.4180e–33 3.99
Типа Кинга [23] $c = 1,\;d = - {{\hat {d}}_{k}},\;b = \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;\omega = 0$ 5 0.5272e–96 4.00
Потра-Птака [13, 22] $c = 1,\;d = b = 0,\;\omega = \tfrac{{{{{\hat {d}}}_{k}}}}{2}$ 5 0.9744e–80 3.99
P1 [21] $c = 1,\;b = d = \omega = 0$ 5 0.1887e–65 4.00
P2 [21] $c = 1,\;d = - \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;b = \omega = 0$ 5 0.1022e–95 4.00
Чжэна [12] $c = 1,\;d = - {{\hat {d}}_{k}},\;b = \omega = 0$ 4 0.1655e–35 4.00
(2.31) $c = b = 1,\;d = - 2,\;\omega = 0$ 5 0.1416e–95 4.00
(2.32) $c = 1,\;d = \omega = - 1,\;b = 0$ 5 0.3838e–82 3.99
Стефенсона ${{x}_{{k + 1}}} = {{x}_{k}} - \tfrac{{f({{x}_{k}})}}{{\phi ({{x}_{k}})}}$ 9 0.8745e–58 2.00
Численные результаты для гладкой функции ${{f}_{2}}(x)$ при ${{x}_{0}} = 0.5$
(2.1) $c = 1,\;d = - {{\hat {d}}_{k}},\;b = - \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;\omega = 0$ 4 0.1673e–104 4.00
Типа Кинга [23] $c = 1,\;d = - {{\hat {d}}_{k}},\;b = \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;\omega = 0$ 5 0.8607e–112 4.00
Потра-Птака [13, 22] $c = 1,\;d = b = 0,\;\omega = \tfrac{{{{{\hat {d}}}_{k}}}}{2}$ 5 0.4066e–70 4.00
P1 [21] $c = 1,\;b = d = \omega = 0$ 5 0.1325e–62 4.00
P2 [21] $c = 1,\;d = - \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;b = \omega = 0$ 5 0.5680e–88 4.00
Чжэна [12] $c = 1,\;d = - {{\hat {d}}_{k}},\;b = \omega = 0$ 4 0.4934e–58 3.99
(2.31) $c = b = 1,\;d = - 2,\;\omega = 0$ 5 0.6144e–109 4.00
(2.32) $c = 1,\;d = \omega = - 1,\;b = 0$ 5 0.6129e–73 4.00
Стефенсона ${{x}_{{k + 1}}} = {{x}_{k}} - \tfrac{{f({{x}_{k}})}}{{\phi ({{x}_{k}})}}$ 8 0.4282e–30 2.00
Таблица 4.  

Трехточечные итерационные методы

Методы ${{\bar {\tau }}_{k}} = H({{\theta }_{k}})$ k $\left| {x{\kern 1pt} {\text{*}} - {{x}_{k}}} \right|$ РПС
выборы параметров
Численные результаты для гладкой функции ${{f}_{1}}(x)$ при ${{x}_{0}} = 1$
(3.34) $c = 1,\;d = \beta - 2,\;b = \omega = 0,\;(\beta = 2)$ 3 0.1710e–38 8.38
(3.34) $c = b = 1,\;d = - 2,\;\omega = 0$ 3 0.3900e–57 7.94
(3.34) $c = 1,\;d = \omega = - 1,\;b = 0$ 3 0.4900e–44 7.99
Лотфи [22] $c = 1,\;d = b = 0,\;\omega = \tfrac{{{{{\tilde {d}}}_{k}}}}{2}$ 3 0.4362e–43 7.99
Типа Кинга [23] $c = \omega = 1,\;d = \beta - 1 - {{\tilde {d}}_{k}},\;b = \tfrac{{2 - \beta }}{{1 + \gamma {{\varphi }_{k}}}},\;(\beta = 2)$ 3 0.1024e–54 7.98
Чжэна [12] $c = 1,\;d = - {{\hat {d}}_{k}},\;b = \omega = 0$ 3 0.5610e–62 7.97
Шарма [14] $c = 1,\;d = - \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;b = \omega = 0$ 3 0.9068e–48 8.00
Численные результаты для гладкой функции ${{f}_{2}}(x)$ при ${{x}_{0}} = 0.5$
(3.34) $c = 1,\;d = \beta - 2,\;b = \omega = 0,\;(\beta = 2)$ 3 0.3321e–33 7.96
(3.34) $c = b = 1,\;d = - 2,\;\omega = 0$ 3 0.1543e–44 8.07
(3.34) $c = 1,\;d = \omega = - 1,\;b = 0$ 3 0.4989e–36 7.98
Лотфи [22] $c = 1,\;d = b = 0,\;\omega = \tfrac{{{{{\tilde {d}}}_{k}}}}{2}$ 3 0.2769e–35 7.99
Типа Кинга [23] $c = \omega = 1,\;d = \beta - 1 - {{\tilde {d}}_{k}},\;b = \tfrac{{2 - \beta }}{{1 + \gamma {{\varphi }_{k}}}},\;(\beta = 2)$ 3 0.5302e–44 8.00
Чжэна [12] $c = 1,\;d = - {{\hat {d}}_{k}},\;b = \omega = 0$ 3 0.6281e–64 7.97
Шарма [14] $c = 1,\;d = - \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;b = \omega = 0$ 3 0.7441e–40 8.02
Таблица 5.  

Численные результаты для негладкой функции ${{f}_{3}}(x)$. Трехточечные итерационные методы

Методы ${{\bar {\tau }}_{k}} = H({{\theta }_{k}})$ k $\left| {x{\kern 1pt} {\text{*}} - {{x}_{k}}} \right|$ РПС
${{x}_{0}} = 0.1,\;x* = 0$
(3.34) $c = 1,\;d = \beta - 2,\;b = \omega = 0,\;(\beta = 2)$ 4 0.7235e–30 2.00
(3.34) $c = b = 1,\;d = - 2,\;\omega = 0$ 4 0.7186e–30 2.00
(3.34) $c = 1,\;d = \omega = - 1,\;b = 0$ 4 0.7222e–30 2.00
Лотфи [22] $c = 1,\;d = b = 0,\;\omega = \tfrac{{{{{\tilde {d}}}_{k}}}}{2}$ 4 0.7221e–30 2.00
Типа Кинга [23] $c = \omega = 1,\;d = \beta - 1 - {{\tilde {d}}_{k}},\;b = \tfrac{{2 - \beta }}{{1 + \gamma {{\varphi }_{k}}}},\;(\beta = 2)$ 4 0.7185e–30 2.00
Чжэна [12] $c = 1,\;d = - {{\hat {d}}_{k}},\;b = \omega = 0$ 4 0.7167e–30 2.00
Шарма [14] $c = 1,\;d = - \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;b = \omega = 0$ 4 0.7205e–30 2.00
${{x}_{0}} = 5,x* = 1$
(3.34) $c = 1,\;d = \beta - 2,\;b = \omega = 0,\;(\beta = 2)$ 4 0.2191e–236 7.99
(3.34) $c = b = 1,\;d = - 2,\;\omega = 0$ 3 0.8113e–39 7.77
(3.34) $c = 1,\;d = \omega = - 1,\;b = 0$ 3 0.8754e–32 7.60
Лотфи [22] $c = 1,\;d = b = 0,\;\omega = \tfrac{{{{{\tilde {d}}}_{k}}}}{2}$ 3 0.2144e–31 7.60
Типа Кинга [23] $c = \omega = 1,\;d = \beta - 1 - {{\tilde {d}}_{k}},\;b = \tfrac{{2 - \beta }}{{1 + \gamma {{\varphi }_{k}}}},\;(\beta = 2)$ 3 0.2249e–37 7.76
Чжэна [12] $c = 1,\;d = - {{\hat {d}}_{k}},\;b = \omega = 0$ 3 0.5377e–47 7.86
Шарма [14] $c = 1,\;d = - \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;b = \omega = 0$ 3 0.4975e–34 7.67
${{x}_{0}} = - 10,\;x* = - 1$
(3.34) $c = 1,\;d = \beta - 2,\;b = \omega = 0,\;(\beta = 2)$ 4 0.4791e–102 7.99
(3.34) $c = b = 1,\;d = - 2,\;\omega = 0$ 4 0.2067e–141 7.99
(3.34) $c = 1,\;d = \omega = - 1,\;b = 0$ 4 0.9351e–112 7.99
Лотфи [22] $c = 1,\;d = b = 0,\;\omega = \tfrac{{{{{\tilde {d}}}_{k}}}}{2}$ 4 0.5302e–110 7.99
Типа Кинга [23] $c = \omega = 1,\;d = \beta - 1 - {{\tilde {d}}_{k}},\;b = \tfrac{{2 - \beta }}{{1 + \gamma {{\varphi }_{k}}}},\;(\beta = 2)$ 4 0.2101e–135 7.99
Чжэна [12] $c = 1,\;d = - {{\hat {d}}_{k}},\;b = \omega = 0$ 4 0.8976e–178 7.99
Шарма [14] $c = 1,\;d = - \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;b = \omega = 0$ 4 0.2099e–121 7.99
Таблица 6.  

Трехточечные итерационные методы

Методы ${{\bar {\tau }}_{k}} = H({{\theta }_{k}})$ k $\left| {x{\kern 1pt} {\text{*}} - {{x}_{k}}} \right|$ РПС
выборы параметров
Численные результаты для негладкой функции ${{f}_{4}}(x)$ при ${{x}_{0}} = 3$
(3.34) $c = 1,\;d = \beta - 2,\;b = \omega = 0,\;(\beta = 2)$ 2 0.1365e–35 7.70
(3.34) $c = b = 1,\;d = - 2,\;\omega = 0$ 2 0.3071e–40 7.79
(3.34) $c = 1,\;d = \omega = - 1,\;b = 0$ 2 0.8144e–37 7.72
Лотфи [22] $c = 1,\;d = b = 0,\;\omega = \tfrac{{{{{\tilde {d}}}_{k}}}}{2}$ 2 0.1228e–36 7.72
Типа Кинга [23] $c = \omega = 1,\;d = \beta - 1 - {{\tilde {d}}_{k}},\;b = \tfrac{{2 - \beta }}{{1 + \gamma {{\varphi }_{k}}}},\;(\beta = 2)$ 2 0.3717e–40 7.80
Чжэна [12] $c = 1,\;d = - {{\hat {d}}_{k}},\;b = \omega = 0$ 2 0.1675e–44 7.84
Шарма [14] $c = 1,\;d = - \tfrac{1}{{1 + \gamma {{\varphi }_{k}}}},\;b = \omega = 0$ 2 0.2114e–38 7.75
Стефенсона ${{x}_{{k + 1}}} = {{x}_{k}} - \tfrac{{f({{x}_{k}})}}{{\phi ({{x}_{k}})}}$ 6 0.5556e–45 2.00

5. ВЫВОДЫ

Необходимые и достаточные условия сходимости оптимальных двух- и трехточечных итерационных методов, полученных в [6], перенесены на случаи методов, не содержащих производные. Они могут быть эффективно использованы не только для установления порядка сходимости, но для изобретения новых методов. На основе метода производящих функций были предложены широкие классы оптимальных методов, которые содержат в себе много известных методов как частные случаи.

Список литературы

  1. Liu L., Wang X. Eighth-order methods of high efficiency index for solving nonlinear equations // Appl. Math. Comput. 2010. V. 215. P. 3449–3454.

  2. Petković M.S., Neta B., Petković L.D., Dzunić J. Multipoint methods for solving nonlinear equations // A survey, Appl. Math. Comput. 2014. V. 226. P. 635–660.

  3. Thukral R., Petković M. S. A family of three-point methods of optimal order for solving nonlinear equations // J. Comput. Appl. Math. 2010. V. 233. P. 2278–2284.

  4. Wang X., Liu L. New eighth-order iterative methods for solving non-linear equations // J. Comput. Appl. Math. 2010. V. 234. P. 1611–1620.

  5. Zhanlav T., Chuluunbaatar O., Ulziibayar V. Generating function method for constructing new iterations // Appl. Math. Comput. 2017. V. 315. P. 414–423.

  6. Жанлав Т., Улзийбаяр В., Чулуунбаатар О. Необходимые и достаточные условия сходимости двух- и трехшаговых итераций ньютоновского типа // Ж. вычисл. матем. и матем. физ. 2017. V. 57. P. 1093–1102. (English translation: Comput. Math. Math. Phys. 2017. V. 57. P. 1090–1100.)

  7. Cordero A., Hueso J.L., Martinez E., Torregrosa J.R. A new technique to obtain derivative-free optimal iterative methods for solving nonlinear equations // J. Comput. Appl. Math. 2013. V. 252. P. 95–102.

  8. Junjua M.D., Zafar F., Yasmin N., Akram S. A general class of derivative free with memory root solvers // Appl. Math. and Phys. 2017. V. 79. № 4. P. 19–28.

  9. Argyros I.K., Kansal M., Kanwar V., Bajaj S. Higher-order derivative-free families of Chebyshev-Halley type methods with or without memory for solving nonlinear equations // Appl. Math. Comput. 2017. V. 315. P. 224–245.

  10. Khattri S.K., Steihaug T. Algorithm for forming derivative-free optimal methods // Numer. Algor. 2014. V. 65. P. 809–842.

  11. Thukral R. Eighth-order iterative methods without derivatives for solving nonlinear equations // ISRN Appl. Math. 2011 Article ID 693787, 12 pages.

  12. Zheng Q., Li J., Huang F. An optimal Steffensen-type family for solving nonlinear equations // Appl. Math. Comput. 2011. V. 217. P. 9592–9597.

  13. Soleymani F., Sharma R., Li X., Tohidi E. An optimized derivative-free form of the Potra-Ptak method // Math. Comput. Model. 2012. V. 56. P. 97–104.

  14. Sharma J.R., Goyal R.K. Fourth-order derivative-free methods for solving non-linear equations // Int. J. Comput. Math. 2006. V. 83. P. 101–106.

  15. Cordero A., Torregrosa J.R. A class of Steffensen type methods with optimal order of convergence // Appl. Math. Comput. 2011. V. 217. P. 7653–7659.

  16. Ren H., Wu Q., Bi W. A class of two-step Steffensen type methods with fourth-order convergence // Appl. Math. Comput. 2009. V. 209. P. 206–210.

  17. Liu Z., Zheng Q., Zhao P. A variant of Steffensen’s method of fourth-order convergence and its applications // Appl. Math. Comput. 2010. V. 216. P. 1978–1983.

  18. Peng Y., Feng H., Li Q., Zhang X. A fourth-order derivative-free algorithm for nonlinear equations // J. Comput. Appl. Math. 2011. V. 235. P. 2551–2559.

  19. Kansal M., Kanwar V., Bhatia S. An optimal eighth-order derivative-free family of Potra-Ptak’s method // Algorithms. 2015. V. 8. P. 309–320.

  20. Soleymani F., Khattri S.K. Finding simple roots by seventh-and eighth-order derivative-free methods // Inter. J. Mathematical Models and Methods in Applied Sciences, 2012. V. 6. P. 45–52.

  21. Thukral R. A family of three-point derivative-free methods of eighth-order for solving nonlinear equations // J. Mod. Meth. Numer. Math. 2012. V. 3. P. 11–21.

  22. Lotfi T., Soleymani F., Ghorbanzadeh M., Assari P. On the construction of some tri-parametric iterative methods with memory // Numer. Algor. 2015. V. 70. P. 835–845.

  23. Sharifi S., Siegmund S., Salimi M. Solving nonlinear equations by a derivative-free form of the King’s family with memory // Calcolo. 2016. V. 53. P. 201–215.

  24. Sharma J.R., Guha R.K., Gupta P. Some efficient derivative free methods with memory for solving nonlinear equations // Appl. Math. Comput. 2012. V. 219. P. 699–707.

  25. Behl R., Gonzalez D., Maroju P., Motsa S.S. An optimal and efficient general eighth-order derivative-free scheme for simple roots // J. Comput. Appl. Math. 2018. V. 330. P. 666–675.

  26. Soleymani F. Optimal fourth-order iterative methods free from derivative // Miskolc Mathematical Notes. 2011. V. 12. P. 255–264.

  27. Khattri S.K., Agarwal R.P. Derivative-free optimal iterative methods // Comput. Meth. in Appl. Math. 2010. V. 10. P. 368–375.

  28. Zhanlav T., Otgondorj Kh. A new family of optimal eighth-order methods for solving nonlinear equations // American Journal of Comput and Applied Math. 2018. V. 8. 1. P. 15–19.

  29. Zafar F., Yasmin N., Kutbi M. A., Zeshan M. Construction of Tri-parametric derivative free fourth order with and without memory iterative method // J. Nonlinear Sci. Appl. 2016. V. 9. P. 1410–1423.

  30. Soleymani F., Vanani S.K. Optimal Steffensen-type methods with eighth order of convergence // Comput. Math. Appl. 2011. V. 62. P. 4619–4626.

  31. Soleymani F. On a bi-parametric class of optimal eighth-order derivative-free methods // Int. J. Pure. Appl. Math. 2011. V. 72. P. 27–37.

  32. Kansal M., Kanwar V., Bhatia S. Efficient derivative-free variants of Hansen-Patrick’s family with memory for solving nonlinear equations // Numer. Algor. 2016. V. 73. P. 1017–1036.

  33. Chicharro F.I., Cordero A., Torregrosa J.R., Vassileva M.P. King-Type derivative-free iterative families: Real and memory dynamics // Complexity. 2017. V. 2017. P. 2713145, 15 pages.

  34. Petković M.S., Ilic S., Dzunić J. Derivative-free two-point methods with and without memory for solving nonlinear equations // Appl. Math. Comput. 2010. V. 217. P. 1887–1895.

Дополнительные материалы отсутствуют.