Журнал вычислительной математики и математической физики, 2021, T. 61, № 1, стр. 32-46
Об оптимальном выборе параметров в двухточечных итерационных методах решения нелинейных уравнений
Т. Жанлав 1, *, Х. Отгондорж 1, 2, **
1 Институт математики и информационных технологий,
Монгольская Академия Наук
13330 Улан-батор, Монголия
2 Факультет Прикладных Наук, Монгольский Государственный Университет Науки
и Технологии
14191 Улан-батор, Монголия
* E-mail: tzhanlav@yahoo.com
** E-mail: otgondorj@gmail.com
Поступила в редакцию 05.11.2019
После доработки 07.07.2020
Принята к публикации 18.09.2020
Аннотация
Разрабатывается новый оптимальный двухпараметрический класс итерационных методов без производных с применением к итерациям типа Хансена–Патрика. Посредством самоускоряющихся параметров мы также получаем новые более высокого порядка методы с памятью. Впервые мы находим точные аналитические формулы для оптимального значения параметров. Увеличение порядка сходимости с $4$ до $7$ достигается без каких-либо дополнительных вычислений. Таким образом, предлагаемые методы с памятью обладают очень высокой вычислительной эффективностью. Численные примеры и сравнения с некоторыми существующими методами включены для подтверждения теоретических результатов и высокой вычислительной эффективности. Библ. 14. Табл. 6.
1. ВВЕДЕНИЕ
В численном анализе и инженерных приложениях часто требуется решить нелинейное уравнение вида $f(x) = 0$, где $f:D \subset R \to R$ – скалярная функция, определенная на открытом интервале $D$. Основными методами решения такого уравнения являются метод Ньютона, заданный (см. [1] и так далее) ${{x}_{{n + 1}}} = {{x}_{n}} - \tfrac{{f({{x}_{n}})}}{{f{\kern 1pt} '({{x}_{n}})}}$, $n \geqslant 0$, и метод Стеффенсена [13], заданный
В последние годы было предложено много итерационных методов более высокого порядка [1]–[6], в которых была введена концепция увеличения порядка сходимости. Достоинство таких методов заключается в том, что они быстро сходятся к требуемым решениям. Однако с увеличением порядка итеративного метода увеличивается количество функциональных вычислений на каждом шаге. Недавно исследователи предложили несколько двухпараметрических простых двухшаговых методов с памятью и без памяти [2], [8], [13], [14]. Авторы этих работ использовали символьные вычисления для получения порядка сходимости и уравнения ошибки. Такая процедура существенно облегчает громоздкие выкладки. Так, в полученном уравнении ошибки присутствуют параметры итерации. Удачные выборы этих параметров позволяют не только повышать порядок сходимости, но и построить новые итерационные методы с памятью. Основная цель данной работы – найти оптимальный выбор параметров ${{\tau }_{n}}$ и $\gamma $, $\lambda $ в двухточечных итерационных методах. Мы получили аналитические формулы для $\gamma $, $\lambda $ без использования метода символьных вычислений.
В разд. 2 мы получаем оптимальные двухточечные итерации Хансена–Патрика без производных. В разд. 3 мы предлагаем семейство двух параметрических оптимальных итераций и доказываем теорему о локальной сходимости. В разд. 4 мы предлагаем новые двухточечные итерации как с памятью, так и без памяти. В разд. 5 мы представляем результаты численных экспериментов, которые подтверждают теоретический вывод о порядке сходимости и сравнение с другими известными методами того же порядка сходимости.
2. ОПТИМАЛЬНЫЕ ДВУХТОЧЕЧНЫЕ ИТЕРАЦИИ
Рассмотрим двухточечные итерации вида
где ${{\tau }_{n}}$– параметр итерации. Известно, что оптимальный выбор параметра позволяет расширить область сходимости и увеличить скорость сходимости итераций (2.1). Достаточным условием сходимости четвертого порядка [3] является где Условие (2.2) часто используется не только для проверки порядка сходимости итераций (2.1), но также для получения новых оптимальных методов. Для ясности мы напомним некоторые определения, нужные в дальнейшем. Многоточечные методы с порядком сходимости ${{2}^{{n - 1}}}$ называем оптимальным [10], где $n$ – количество вычислений функции на каждом шаге итерации. Еще одним из важных характеристик итерационных методов является их индекс эффективности $EI = {{\rho }^{{1/n}}}$, где $\rho $ – порядок сходимости. В качестве примера рассмотрим известное кубически сходящееся семейство итераций Лагерра (или итерации Хансена–Патрика) (2.1) с параметром ${{\tau }_{n}}$, заданным в виде(2.4)
${{\tau }_{n}} = \frac{{\alpha + 1}}{{\alpha + {\text{sign}}(\alpha )\sqrt {1 - (\alpha + 1)\tfrac{{f{\kern 1pt} '{\kern 1pt} '({{x}_{n}})f({{x}_{n}})}}{{f{\kern 1pt} '{{{({{x}_{n}})}}^{2}}}}} }},\quad \alpha \ne - 1.$(2.5)
${{\theta }_{n}} = \frac{{f{\kern 1pt} '{\kern 1pt} '({{x}_{n}})f({{x}_{n}})}}{{2f{\kern 1pt} '{{{({{x}_{n}})}}^{2}}}} + O(f{{({{x}_{n}})}^{2}}).$(2.6)
${{\tau }_{n}} = \frac{{\alpha + 1}}{{\alpha \pm \sqrt {1 - 2(\alpha + 1){{\theta }_{n}} + O(f{{{({{x}_{n}})}}^{2}})} }},\quad \alpha \ne - 1.$Пренебрегая малым членом $O(f{{({{x}_{n}})}^{2}})$ в (2.6), получаем
(2.7)
${{\tau }_{n}} = \frac{{\alpha + 1}}{{\alpha + \sqrt {1 - 2(\alpha + 1){{\theta }_{n}}} }},\quad \alpha \ne - 1.$(2.8)
${{(1 - x)}^{\alpha }} = 1 - \alpha x + \frac{{\alpha (\alpha - 1)}}{2}{{x}^{2}} - \frac{{\alpha (\alpha - 1)(\alpha - 2)}}{6}{{x}^{3}} + \ldots ,\quad {\text{|}}x{\kern 1pt} {\text{|}} < 1,$(2.9)
${{\tau }_{n}} = 1 + {{\theta }_{n}} + \frac{{\alpha + 3}}{2}\theta _{n}^{2} + O(\theta _{n}^{3}).$(2.11)
${{\tau }_{n}} = \frac{{\alpha + 1}}{{\alpha + \sqrt {1 - 2(\alpha + 1){{\theta }_{n}}} }}H({{\theta }_{n}}),\quad \alpha \ne - 1,$(2.13)
${{\tau }_{n}} = 1 + (a + 1){{\theta }_{n}} + \left( {a + b + \frac{{\alpha + 3}}{2}} \right)\theta _{n}^{2} + \ldots \;.$(2.14)
${{\tau }_{n}} = \frac{{\alpha + 1}}{{\alpha + \sqrt {1 - 2(\alpha + 1){{\theta }_{n}}} }}\left( {1 + \frac{{1 - \alpha }}{2}\theta _{n}^{2}} \right),\quad \alpha \ne - 1.$(2.15)
${{\tau }_{n}} = \frac{{\alpha + 1}}{{\alpha + \sqrt {1 - 2(\alpha + 1){{\theta }_{n}}} }} + \frac{{1 - \alpha }}{2}\theta _{n}^{2}.$(2.16)
${{\tau }_{n}} = \frac{{\alpha + 1}}{{\alpha + \sqrt {\tfrac{{1 - (\alpha + 3){{\theta }_{n}} - ({{\alpha }^{2}} - 1)\theta _{n}^{2}}}{{1 + (\alpha - 1){{\theta }_{n}}}}} }},\quad \alpha \ne - 1.$(2.17)
$\begin{gathered} {{y}_{n}} = {{x}_{n}} - \frac{{f({{x}_{n}})}}{{{{\phi }_{n}}}}, \\ {{x}_{{n + 1}}} = {{x}_{n}} - {{\tau }_{n}}\frac{{f({{x}_{n}})}}{{{{\phi }_{n}}}}\quad {\text{или}}\quad \left( {{{x}_{{n + 1}}} = {{y}_{n}} - {{{\bar {\tau }}}_{n}}\frac{{f({{y}_{n}})}}{{{{\phi }_{n}}}}} \right), \\ \end{gathered} $(2.19)
${{\bar {\tau }}_{n}} = \frac{1}{{{{\theta }_{n}}}}\left( {\frac{{\alpha + 1}}{{\alpha + \sqrt {\tfrac{{1 - (\alpha + 3){{\theta }_{n}} - ({{\alpha }^{2}} - 1)\theta _{n}^{2}}}{{1 + (\alpha - 1){{\theta }_{n}}}}} }} - 1} \right) + ({{\hat {d}}_{n}} - 2){{\theta }_{n}},$(2.22)
${{\bar {\tau }}_{n}} = \frac{1}{{{{\theta }_{n}}}}\left( {\frac{{\alpha + 1}}{{\alpha + \sqrt {1 - 2(\alpha + 1){{\theta }_{n}}} }}\left( {1 + \left( {{{{\hat {d}}}_{n}} - 2 - \frac{{\alpha - 1}}{2}} \right)\theta _{n}^{2}} \right) - 1} \right),\quad \alpha \ne - 1.$Замечание 1. В общем, мы можем рассмотреть следующую весовую функцию:
(2.23)
$W({{\theta }_{n}},\alpha ,m) = \frac{{\alpha + 1}}{{\alpha + \sqrt[m]{{1 - m(\alpha + 1){{\theta }_{n}}}}}} = 1 + {{\theta }_{n}} + \left( {1 - \frac{{1 - m}}{2}(\alpha + 1)} \right)\theta _{n}^{2} + \ldots $(2.24)
${{\tau }_{n}} = W({{\theta }_{n}},\alpha ,m) + \left( {1 + \frac{{1 - m}}{2}(\alpha + 1)} \right)\theta _{n}^{2},\quad \alpha \ne - 1,$(2.26)
$H(0) = 1,\quad H{\kern 1pt} '(0) = 0,\quad H{\kern 1pt} '{\kern 1pt} '(0) = 2\left( {1 + \frac{{1 - m}}{2}(\alpha + 1)} \right).$3. СЕМЕЙСТВО ДВУХПАРАМЕТРИЧЕСКИХ ОПТИМАЛЬНЫХ ИТЕРАЦИЙ, НЕ СОДЕРЖАЩИХ ПРОИЗВОДНЫЕ
Теперь рассмотрим двухпараметрическиe итерации без производных
(3.1)
$\begin{gathered} {{y}_{n}} = {{x}_{n}} - \frac{{f({{x}_{n}})}}{{{{\phi }_{n}} + \lambda f({{w}_{n}})}},\quad \lambda \in R, \\ {{x}_{{n + 1}}} = {{y}_{n}} - {{{\bar {\tau }}}_{n}}\frac{{f({{y}_{n}})}}{{{{\phi }_{n}} + \lambda f({{w}_{n}})}}, \\ \end{gathered} $(3.2)
${{\phi }_{n}} = f{\kern 1pt} '({{x}_{n}})\left( {1 + \frac{{{{a}_{n}}}}{2}f{\kern 1pt} '({{x}_{n}})\gamma } \right) + O(f_{n}^{2}),\quad ({{f}_{n}}) = f({{x}_{n}}),$(3.3)
${{a}_{n}} = \frac{{f{\kern 1pt} '{\kern 1pt} '({{x}_{n}})f({{x}_{n}})}}{{f{\kern 1pt} '{{{({{x}_{n}})}}^{2}}}}.$Пусть ${{\eta }_{n}} = \tfrac{{f{\kern 1pt} '({{x}_{n}})}}{{{{\phi }_{n}}}}.$ Тогда, используя (3.2), получаем
(3.4)
${{\eta }_{n}} = \frac{1}{{1 + \tfrac{{{{a}_{n}}}}{2}f{\kern 1pt} '({{x}_{n}})\gamma + O(f_{n}^{2})}} = 1 - \frac{{{{a}_{n}}}}{2}f{\kern 1pt} '({{x}_{n}})\gamma + O(f_{n}^{2}).$(3.5)
$f({{y}_{n}}) = f({{x}_{n}})\left( {1 - {{\eta }_{n}}\left( {1 - \frac{{\lambda f({{w}_{n}})}}{{{{\phi }_{n}}}}} \right)} \right) + O(f_{n}^{2}) = f({{x}_{n}})\left( {1 - \left( {1 - \frac{{{{a}_{n}}}}{2}f{\kern 1pt} '({{x}_{n}})\gamma } \right)\left( {1 - \frac{{\lambda f({{w}_{n}})}}{{{{\phi }_{n}}}}} \right)} \right) + O(f_{n}^{2}).$(3.6)
$f({{x}_{{n + 1}}}) = \left( {1 - {{{\bar {\tau }}}_{n}}\frac{{f{\kern 1pt} '({{y}_{n}})}}{{{{\phi }_{n}} + \lambda f({{w}_{n}})}}} \right)f({{y}_{n}}) + O(f{{({{y}_{n}})}^{2}}).$(3.8)
${{\bar {\tau }}_{n}} = \frac{{{{\phi }_{n}} + \lambda f({{w}_{n}})}}{{f{\kern 1pt} '({{y}_{n}})}} + O(f_{n}^{2}).$(3.10)
$\begin{gathered} {{{\bar {\tau }}}_{n}} = \frac{{1 + \tfrac{{{{a}_{n}}}}{2}f_{n}^{'}\gamma + \lambda \tfrac{{(1 + \gamma {{\phi }_{n}}){{f}_{n}}}}{{f_{n}^{'}}} + O(f_{n}^{2})}}{{1 - {{a}_{n}} + O(f_{n}^{2})}} = \left( {1 + \frac{{{{a}_{n}}}}{2}f_{n}^{'}\gamma + \frac{{\lambda (1 + \gamma {{\phi }_{n}}){{f}_{n}}}}{{f_{n}^{'}}}} \right)(1 + {{a}_{n}}) + O(f_{n}^{2}) = \\ \, = 1 + \left( {1 + \frac{{f_{n}^{'}\gamma }}{2}} \right){{a}_{n}} + \frac{{\lambda (1 + \gamma {{\phi }_{n}}){{f}_{n}}}}{{f_{n}^{'}}} + O(f_{n}^{2}). \\ \end{gathered} $(3.11)
${{\bar {\tau }}_{n}} = 1 + \frac{{2 + \gamma {{\phi }_{n}}}}{2}{{a}_{n}} + \frac{{\lambda (1 + \gamma {{\phi }_{n}}){{f}_{n}}}}{{{{\phi }_{n}}}} + O(f_{n}^{2}).$(3.12)
$\begin{gathered} {{\theta }_{n}} = \frac{{{{a}_{n}}}}{2}(1 + \gamma f_{n}^{'}) + \frac{{\lambda (1 + \gamma {{\phi }_{n}})}}{{{{\phi }_{n}}}}f({{x}_{n}}) + O(f_{n}^{2}) = \frac{{{{a}_{n}}}}{2}(1 + \gamma {{\phi }_{n}}) + \frac{{\lambda (1 + \gamma {{\phi }_{n}})}}{{{{\phi }_{n}}}}f({{x}_{n}}) + O(f_{n}^{2}) = \\ \, = (1 + \gamma {{\varphi }_{n}})\left( {\frac{{{{a}_{n}}}}{2} + \lambda \frac{{f({{x}_{n}})}}{{{{\phi }_{n}}}}} \right) + O(f_{n}^{2}). \\ \end{gathered} $(3.13)
$\frac{{{{a}_{n}}}}{2} = \frac{{{{\theta }_{n}}}}{{1 + \gamma {{\phi }_{n}}}} - \frac{{\lambda f({{x}_{n}})}}{{{{\phi }_{n}}}} + O(f_{n}^{2}).$(3.14)
${{\bar {\tau }}_{n}} = 1 + {{\hat {d}}_{n}}{{\theta }_{n}} - \frac{{\lambda f({{x}_{n}})}}{{{{\phi }_{n}}}} + O(f_{n}^{2}).$Теорема 1. Предположим, что функция $f:D \subset R \to R$ достаточно дифференцируема и имеет простой ноль $x{\kern 1pt} * \in D$. Пусть начальное приближение ${{x}_{0}}$ достаточно близко к $x{\kern 1pt} *$, а параметр ${{\bar {\tau }}_{n}}$ удовлетворяет условию (3.14). Тогда итерационные методы (3.1) имеют оптимальную сходимость четвертого порядка.
Кансал и соавт. в [2] предложили новое трехпараметрическое оптимальное семейство итераций типа Хансена–Патрика без производных
(3.15)
$\begin{gathered} {{y}_{n}} = {{x}_{n}} - \frac{{f({{x}_{n}})}}{{{{\phi }_{n}} + \lambda f({{w}_{n}})}}, \\ {{x}_{{n + 1}}} = {{y}_{n}} - {{{\bar {\tau }}}_{n}}\frac{{f({{y}_{n}})}}{{f[y,{{w}_{n}}] + \lambda f({{w}_{n}})}}, \\ \end{gathered} $(3.16)
${{\bar {\tau }}_{n}} = \frac{1}{{{{\theta }_{n}}}}\left( {\frac{{\alpha + 1}}{{\alpha + \sqrt {1 - 2(\alpha + 1){{\theta }_{n}}} }} - 1} \right)H({{\theta }_{n}}),\quad \alpha \ne - 1.$(3.17)
$H(0) = 1,\quad H{\kern 1pt} '(0) = - \frac{{\alpha + 1}}{2},\quad \left| {H{\kern 1pt} '{\kern 1pt} '(0)} \right| < \infty .$(3.18)
$f[y,{{w}_{n}}] + \lambda f({{w}_{n}}) = ({{\phi }_{n}} + \lambda f({{w}_{n}}))\left( {1 - \frac{{{{\phi }_{n}}{{\theta }_{n}} - \lambda f({{w}_{n}})}}{{(1 + \gamma {{\phi }_{n}})(\phi + \lambda f({{w}_{n}}))}}} \right) + O(f_{n}^{2}),$(3.19)
${{\bar {\tau }}_{n}} = \left( {1 + \frac{{{{\phi }_{n}}{{\theta }_{n}} - \lambda f({{w}_{n}})}}{{(1 + \gamma {{\phi }_{n}})(\phi + \lambda f({{w}_{n}}))}}} \right)\frac{1}{{{{\theta }_{n}}}}\left( {\frac{{\alpha + 1}}{{\alpha + \sqrt {1 - 2(\alpha + 1){{\theta }_{n}}} }} - 1} \right)H({{\theta }_{n}}),\quad \alpha \ne - 1.$Пусть $\gamma = 0$ в (3.1). Тогда (3.1) приводит к итерациям с одним параметром
(3.20)
$\begin{gathered} {{y}_{n}} = {{x}_{n}} - \frac{{f({{x}_{n}})}}{{f{\kern 1pt} '({{x}_{n}}) + \lambda f({{x}_{n}})}}, \\ {{x}_{{n + 1}}} = {{y}_{n}} - {{{\bar {\tau }}}_{n}}\frac{{f({{y}_{n}})}}{{f{\kern 1pt} '({{x}_{n}}) + \lambda f({{x}_{n}})}}. \\ \end{gathered} $(3.21)
${{\bar {\tau }}_{n}} = 1 + 2{{\theta }_{n}} - \frac{{\lambda f({{x}_{n}})}}{{f{\kern 1pt} '({{x}_{n}})}} + O(f_{n}^{2}).$(3.22)
$f({{y}_{n}}) = f{{({{x}_{n}})}^{2}}\left( {\frac{\lambda }{{f_{n}^{'}}} + \frac{{f_{n}^{{''}}}}{{2f_{n}^{{'2}}}} - \frac{{{{\lambda }^{2}}{{f}_{n}}}}{{f_{n}^{{'2}}}} - \frac{{\lambda {{f}_{n}}f_{n}^{{''}}}}{{f_{n}^{{'3}}}} - \frac{{f_{n}^{{'''}}{{f}_{n}}}}{{6f_{n}^{{'3}}}}} \right) + O(f_{n}^{4}).$(3.24)
$f({{y}_{n}}) = f({{x}_{n}})\left( {{{{\left( {\frac{{{{a}_{n}}}}{2}} \right)}}^{2}} - \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{6f_{n}^{{'3}}}}} \right) + O(f_{n}^{4}).$(3.25)
$\frac{{f_{n}^{{'''}}f_{n}^{2}}}{{f_{n}^{{'3}}}} = \frac{3}{2}a_{n}^{2} - 6{{\theta }_{n}} + O(f_{n}^{3}).$(3.26)
$f({{x}_{{n + 1}}}) = f({{y}_{n}})\left( {1 - \frac{{f{\kern 1pt} '({{y}_{n}})}}{{f{\kern 1pt} '({{x}_{n}})}}{{{\bar {\tau }}}_{n}}\left( {1 - \frac{{\lambda {{f}_{n}}}}{{f_{n}^{'}}}} \right)} \right) + O(f{{({{y}_{n}})}^{2}}).$(3.28)
${{\bar {\tau }}_{n}} = \frac{1}{{1 - \tfrac{{\lambda {{f}_{n}}}}{{f_{n}^{'}}}}}\frac{{f{\kern 1pt} '({{x}_{n}})}}{{f{\kern 1pt} '({{y}_{n}})}} + O(f_{n}^{3}).$(3.29)
$\frac{{f{\kern 1pt} '({{x}_{n}})}}{{f{\kern 1pt} '({{y}_{n}})}} = \frac{1}{{1 - {{a}_{n}} + a_{n}^{2}{\text{/}}4 - 3{{\theta }_{n}} + O(f_{n}^{3})}} = 1 + {{a}_{n}} + \frac{{3a_{n}^{2}}}{4} + 3{{\theta }_{n}} + O(f_{n}^{3}).$(3.30)
${{\bar {\tau }}_{n}} = 1 + \frac{{{{a}_{n}}}}{2} + \frac{{a_{n}^{2}}}{4} + 3{{\theta }_{n}} + O(f_{n}^{3}).$Теорема 2. Предположим, что функция $f:D \subset R \to R$ достаточно дифференцируема и имеет простой ноль $x{\kern 1pt} * \in D$. Пусть начальное приближение ${{x}_{0}}$ достаточно близко к $x{\kern 1pt} *$, а параметры ${{\lambda }_{n}}$ и ${{\bar {\tau }}_{n}}$ удовлетворяют условиям (3.23) и (3.30). Тогда итерационные методы (3.20) имеют сходимость шестого порядка.
На основе оптимального выбора параметров ${{\lambda }_{n}}$ и ${{\bar {\tau }}_{n}}$ можно построить новые сходящиеся итерации шестого порядка с памятью:
(3.31)
${{\bar {\tau }}_{n}} = 1 - \frac{{{{\lambda }_{n}}{{f}_{n}}}}{{f_{n}^{'}}} + {{\left( {\frac{{{{\lambda }_{n}}{{f}_{n}}}}{{f_{n}^{'}}}} \right)}^{2}} + 3{{\theta }_{n}},$
Видно, что $f{\kern 1pt} '{\kern 1pt} '({{x}_{n}}) = {{\Delta }_{n}} + O(f_{n}^{2})$.
Замечание 2. Уравнение ошибки, полученное с помощью символьных вычислений, играет важную роль в создании новых методов (без производных) с памятью [1], [2], [8]–[13]. Например, с выбором
Аналогично, легко показать, что
(3.32)
$f({{x}_{{n + 1}}}) = O(f{{({{x}_{n}})}^{5}}),\quad {\text{если}}\quad {{\bar {\tau }}_{n}} = 1 + \frac{{{{a}_{n}}}}{2} + O(f_{n}^{2}).$(3.33)
$\begin{gathered} {{y}_{n}} = {{x}_{n}} - \frac{{f({{x}_{n}})}}{{f{\kern 1pt} '({{x}_{n}}) + \lambda f({{x}_{n}})}}, \\ {{x}_{{n + 1}}} = {{y}_{n}} - \frac{{f({{y}_{n}})}}{{f{\kern 1pt} '({{x}_{n}}) + \gamma f({{x}_{n}})}}G({{\theta }_{n}}),\quad \lambda ,\gamma \in R, \\ \end{gathered} $(3.34)
$\gamma = 2\lambda ,\quad G(0) = 1,\quad G{\kern 1pt} '(0) = 2,\quad \left| {G{\kern 1pt} '{\kern 1pt} '(0)} \right| < \infty .$(3.35)
${{\lambda }_{n}} = - \frac{{H_{m}^{{''}}({{x}_{n}})}}{{2H_{m}^{'}({{x}_{n}})}},\quad m = 2,3,4,$Замечание 3. Как уже упоминалось выше, при рассмотрении итераций типа Хансена–Патрика ${{\bar {\tau }}_{n}}$ определяется как (3.19).
4. НОВЫЕ ИТЕРАЦИОННЫЕ МЕТОДЫ С ПАМЯТЬЮ
Теперь мы приступим к созданию новых итерационных методов с памятью из (3.1), используя два самоускоряющихся параметра $\gamma $ и $\lambda $. Легко показать, что
и при выборе Пусть $f({{x}_{n}}) \in {{C}^{4}}(I)$. Используя разложение Тейлора для $f({{w}_{n}})$ и (4.3), получаем(4.4)
${{\eta }_{n}} = \frac{{f_{n}^{'}}}{{{{\phi }_{n}}}} = 1 + \frac{{{{a}_{n}}}}{2} + \frac{{a_{n}^{2}}}{4} - \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{6f_{n}^{{'3}}}} + O(f_{n}^{3}).$(4.5)
$f({{y}_{n}}) = f({{x}_{n}})\left( {1 - \frac{{{{\eta }_{n}}}}{{1 + \tfrac{{\lambda f({{w}_{n}})}}{{{{\phi }_{n}}}}}} + \frac{{{{a}_{n}}}}{2}{{{\left( {\frac{{{{\eta }_{n}}}}{{1 + \tfrac{{\lambda f({{w}_{n}})}}{{{{\phi }_{n}}}}}}} \right)}}^{2}} - \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{6f_{n}^{{'3}}}}{{{\left( {\frac{{{{\eta }_{n}}}}{{1 + \tfrac{{\lambda f({{w}_{n}})}}{{{{\phi }_{n}}}}}}} \right)}}^{3}}} \right) + O(f_{n}^{4}).$(4.6)
$\begin{gathered} \frac{{{{\eta }_{n}}}}{{1 + \tfrac{{\lambda f({{w}_{n}})}}{{{{\phi }_{n}}}}}} = \left( {1 + \frac{{{{a}_{n}}}}{2} + \frac{{a_{n}^{2}}}{4} - \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{6f_{n}^{{'3}}}} + \cdots } \right)\left( {1 - \frac{{\lambda f({{w}_{n}})}}{{{{\phi }_{n}}}} + \cdots } \right) = \\ \, = \left( {1 + \frac{{{{a}_{n}}}}{2} + \frac{{a_{n}^{2}}}{4} - \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{6f_{n}^{{'3}}}} - \frac{{\lambda f({{w}_{n}})}}{{{{\phi }_{n}}}} + O(f_{n}^{3})} \right). \\ \end{gathered} $(4.7)
$\begin{gathered} f({{y}_{n}}) = f({{x}_{n}})\left( { - \frac{{{{a}_{n}}}}{2} - \frac{{a_{n}^{2}}}{4} + \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{6\mathop {{{f}_{n}}}\nolimits^3 }} + \frac{{\lambda f({{w}_{n}})}}{{{{\phi }_{n}}}} + \frac{{{{a}_{n}}}}{2}(1 + {{a}_{n}}) - \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{6f_{n}^{{'3}}}}} \right) + O(f_{n}^{4}) = \\ \, = f({{x}_{n}})\left( {\frac{{a_{n}^{2}}}{4} + \frac{{\lambda f({{w}_{n}})}}{{{{\phi }_{n}}}}} \right) + O(f_{n}^{4}). \\ \end{gathered} $(4.13)
${{\bar {\tau }}_{n}} = - \frac{{{{\phi }_{n}} + \lambda f({{w}_{n}})}}{{f{\kern 1pt} '({{y}_{n}})}} + O(f_{n}^{3})$(4.14)
${{\bar {\tau }}_{n}} = \frac{{{{\phi }_{n}}}}{{f{\kern 1pt} '({{y}_{n}})}}\left( {1 - \frac{{a_{n}^{2}}}{4}} \right) + O(f_{n}^{3}).$(4.15)
$f{\kern 1pt} '({{y}_{n}}) = f{\kern 1pt} '({{x}_{n}})\left( {1 - {{a}_{n}}\left( {\frac{{{{\eta }_{n}}}}{{1 - \tfrac{{a_{n}^{2}}}{4}}}} \right) + \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{2f_{n}^{{'3}}}}{{{\left( {\frac{{{{\eta }_{n}}}}{{1 - \tfrac{{a_{n}^{2}}}{4}}}} \right)}}^{2}}} \right) + O(f_{n}^{3}).$(4.16)
$\frac{{{{\eta }_{n}}}}{{1 - \tfrac{{a_{n}^{2}}}{4}}} = \left( {1 + \frac{{{{a}_{n}}}}{2} + \frac{{a_{n}^{2}}}{4} - \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{6f_{n}^{{'3}}}} + \ldots } \right)\left( {1 + \frac{{a_{n}^{2}}}{4} + \ldots } \right) = 1 + \frac{{{{a}_{n}}}}{2} + \frac{{a_{n}^{2}}}{2} - \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{6f_{n}^{{'3}}}} + O(f_{n}^{3}),$(4.17)
$f{\kern 1pt} '({{y}_{n}}) = f{\kern 1pt} '({{x}_{n}})\left( {1 - {{a}_{n}} - \frac{{a_{n}^{2}}}{2} + \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{2f_{n}^{{'3}}}}} \right) + O(f_{n}^{3}).$(4.18)
${{\bar {\tau }}_{n}} = 1 - \frac{{{{a}_{n}}}}{2} + \frac{3}{4}a_{n}^{2} + 2(1 + {{\gamma }_{n}}{{\phi }_{n}}) + O(f_{n}^{3}),$(4.19)
$1 + {{\gamma }_{n}}{{\phi }_{n}} = \frac{{{{a}_{n}}}}{2} - \frac{{f_{n}^{{'''}}f_{n}^{2}}}{{6f_{n}^{{'3}}}} + O(f_{n}^{3}).$Теорема 3. Предположим, что функция $f:D \subset R \to R$ достаточно дифференцируема и имеет простой ноль $x{\kern 1pt} * \in D$. Пусть начальное приближение ${{x}_{0}}$ достаточно близко к $x{\kern 1pt} *$, а параметры $\gamma $ и $\lambda $ в (3.1) выбираются как
Таким образом, оптимальный выбор параметров позволяет увеличить порядок сходимости с $4$ до $7$. Однако значения $f{\kern 1pt} '({{x}_{n}})$ и $f{\kern 1pt} '{\kern 1pt} '({{x}_{n}})$ на практике недоступны, и такое ускорение сходимости не может быть реализовано. Но мы бы приблизили параметры ${{\gamma }_{n}}$ и ${{\lambda }_{n}}$. Они могут быть вычислены с использованием информации, доступной из текущей и предыдущей итераций. На основе вариантов (4.3) и (4.11) можно построить двухточечные итерации (без производных) с памятью и имеющие седьмой порядок сходимости:
(4.20)
$\begin{gathered} {{\gamma }_{n}} = - \frac{1}{{N_{3}^{'}({{x}_{n}})}},\quad {{w}_{n}} = {{x}_{n}} + {{\gamma }_{n}}f({{x}_{n}}),\quad {{\lambda }_{n}} = - \frac{{N_{4}^{{''}}({{x}_{n}})}}{{2N_{4}^{'}({{x}_{n}})}},\quad n = 1,2, \ldots , \\ {{y}_{n}} = {{x}_{n}} - \frac{{f({{x}_{n}})}}{{{{\phi }_{n}} + {{\lambda }_{n}}f({{w}_{n}})}}, \\ \end{gathered} $5. ЧИСЛЕННЫЕ ЭКСПЕРИМЕНТЫ
Чтобы продемонстрировать поведение сходимости и эффективность методов (3.1), (3.20), (3.36), (4.20), мы рассмотрим несколько числовых примеров и сделаем сравнения с существующими методами того же порядка. Расчеты были выполнены в Maple 18 с использованием арифметики с кратной точностью и с 1000 цифрами. Для численных расчетов мы использовали следующие функции [12], [13] и [14]:
Таблица 1.
${{f}_{1}} = {{e}^{{{{x}^{3}} - x}}} - cos({{x}^{2}} - 1) + {{x}^{3}} + 1$, ${{x}_{0}} = - 1.5,$ $x* = - 1$ [14]
Методы | $n$ | ${{\bar {\tau }}_{n}}$ | $\left| {{{x}_{n}} - x{\kern 1pt} *} \right|$ | $\rho $ |
---|---|---|---|---|
(3.1) ($\lambda = - 0.1$, $\gamma = - 0.01$) | 4 | (3.14) | 0.1014e–217 | 4.00 |
(3.1) ($\alpha = 1$, $\gamma = - 0.01$) | 4 | (3.19) | 0.1544e–224 | 4.00 |
(3.20) ($\lambda = - 0.1$) | 4 | (3.21) | 0.6919e–229 | 4.00 |
Dzunic [13] ($p = - 0.1$, $\gamma = - 0.01$, $g({{\theta }_{n}}) = 1 + {{\theta }_{n}}$) | 4 | 0.4682e–222 | 4.00 | |
Wang-Zhang [8] ($t = 8$, $\lambda = - 0.1$, $G({{\theta }_{n}}) = 1 + 2 * {{\theta }_{n}} + t * \theta _{n}^{2}$) | 4 | 0.1974e–192 | 4.00 | |
Kung-Traub [11] | 4 | 0.9297e–173 | 4.00 | |
Chebyshev-Halley [11] | 4 | 0.5980e–175 | 4.00 |
Таблица 2.
${{f}_{1}} = {{e}^{{{{x}^{3}} - x}}} - cos({{x}^{2}} - 1) + {{x}^{3}} + 1$, ${{x}_{0}} = - 1.5$, $x* = - 1$ [14]
Методы | $n$ | ${{\bar {\tau }}_{n}}$ | $\left| {{{x}_{n}} - x{\kern 1pt} *} \right|$ | $\rho $ |
---|---|---|---|---|
(3.20) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$) | 3 | (3.21) | 0.1735e–56 | 5.00 |
(3.20) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 3 | (3.32) | 0.7578e–99 | 5.00 |
(3.36) (${{\lambda }_{n}} = - {{\Delta }_{n}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 3 | 0.4079e–85 | 5.02 | |
(3.33)–(3.35) [8] (${{\lambda }_{n}} = - H_{4}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 3 | 0.2404e–89 | 5.09 | |
(3.20) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 3 | (3.30) | 0.6559e–176 | 6.00 |
(3.31) (${{\lambda }_{n}} = - {{\Delta }_{n}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 3 | 0.4538e–125 | 6.00 | |
(3.1) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 3 | (4.18) | 0.3128e–93 | 7.00 |
(4.20) (${{\lambda }_{n}} = - N_{4}^{{''}}({{x}_{n}}){\text{/}}2N_{4}^{'}({{x}_{n}})$, ${{\lambda }_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$) | 3 | (3.21) | 0.4294e–162 | 7.06 |
Dzunic [13] (${{p}_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$), $g({{\theta }_{n}}) = 1 + {{\theta }_{n}}$ | 3 | 0.1404e–157 | 7.06 | |
Cordero [14] (${{\lambda }_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$) | 3 | 0.1114e–157 | 7.06 | |
Kansal [2] (${{\lambda }_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$), $\alpha = \beta = 1{\text{/}}2$ | 3 | 0.1095e–100 | 7.08 |
Таблица 3.
${{f}_{2}} = {{e}^{{{{x}^{3}} - 3x}}}sinx + log({{x}^{2}} + 1)$, ${{x}_{0}} = 1$, $x* = 0$ [12]
Методы | $n$ | ${{\bar {\tau }}_{n}}$ | $\left| {{{x}_{n}} - x{\kern 1pt} *} \right|$ | $\rho $ |
---|---|---|---|---|
(3.1) ($\lambda = - 0.1$, $\gamma = - 0.01$) | 4 | (3.14) | 0.1469e–82 | 4.00 |
(3.1) ($\alpha = 1$, $\gamma = - 0.01$) | 4 | (3.19) | 0.6589e–68 | 3.99 |
(3.20) ($\lambda = - 0.1$) | 4 | (3.21) | 0.3650e–83 | 4.00 |
Dzunic [13] ($p = - 0.1$, $\gamma = - 0.01$, $g({{\theta }_{n}}) = 1 + {{\theta }_{n}}$) | 4 | 0.7008e–66 | 4.00 | |
Wang-Zhang [8] ($t = 8$, $\lambda = - 0.1$, $G({{\theta }_{n}}) = 1 + 2 * {{\theta }_{n}} + t * \theta _{n}^{2}$) | 5 | 0.7447e–204 | 4.00 | |
Kung-Traub [11] | 4 | 0.1469e–82 | 4.00 | |
Chebyshev-Halley [11] | 4 | 0.1975e–88 | 4.00 |
Таблица 4.
${{f}_{2}} = {{e}^{{{{x}^{3}} - 3x}}}sinx + log({{x}^{2}} + 1)$, ${{x}_{0}} = 1$, $x* = 0$ [12]
Методы | $n$ | ${{\bar {\tau }}_{n}}$ | $\left| {{{x}_{n}} - x{\kern 1pt} *} \right|$ | $\rho $ |
---|---|---|---|---|
(3.20) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$) | 4 | (3.21) | 0.2170e–217 | 5.00 |
(3.20) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 4 | (3.32) | 0.3916e–220 | 5.00 |
(3.36) (${{\lambda }_{n}} = - {{\Delta }_{n}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 4 | 0.2326e–136 | 5.00 | |
(3.33)–(3.35) [8] (${{\lambda }_{n}} = - H_{4}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 4 | 0.2069e–122 | 5.00 | |
(3.20) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 4 | (3.30) | 0.3111e–233 | 6.00 |
(3.31) (${{\lambda }_{n}} = - {{\Delta }_{n}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 4 | 0.2699e–291 | 6.00 | |
(3.1) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 4 | (4.18) | 0.1560e–119 | 7.00 |
(4.20) (${{\lambda }_{n}} = - N_{4}^{{''}}({{x}_{n}}){\text{/}}2N_{4}^{'}({{x}_{n}})$, ${{\lambda }_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$) | 4 | (3.21) | 0.3134e–416 | 7.00 |
Dzunic [13] (${{p}_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$), $g({{\theta }_{n}}) = 1 + {{\theta }_{n}}$ | 4 | 0.3892e–330 | 6.99 | |
Cordero [14] (${{\lambda }_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$) | 4 | 0.5524e–284 | 6.99 | |
Kansal [2] (${{\lambda }_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$), $\alpha = \beta = 1{\text{/}}2$ | 4 | 0.8391e–293 | 6.98 |
Таблица 5.
${{f}_{3}} = ({{x}^{6}} + {{x}^{{ - 6}}} + 4)(x - 1)sin{{x}^{2}}$, ${{x}_{0}} = 0.8$, $x* = 1$ [13]
Методы | $n$ | ${{\bar {\tau }}_{n}}$ | $\left| {{{x}_{n}} - x{\kern 1pt} *} \right|$ | $\rho $ |
---|---|---|---|---|
(3.1) ($\lambda = - 0.1$, $\gamma = - 0.01$) | 4 | (3.14) | 0.3589e–140 | 4.00 |
(3.1) ($\alpha = 1$, $\gamma = - 0.01$) | 4 | (3.19) | 0.9036e–111 | 4.00 |
(3.20) ($\lambda = - 0.1$) | 4 | (3.21) | 0.1007e–138 | 4.00 |
Dzunic [13] ($p = - 0.1$, $\gamma = - 0.01$, $g({{\theta }_{n}}) = 1 + {{\theta }_{n}}$) | 4 | 0.4671e–130 | 4.00 | |
Wang-Zhang [8] ($t = 8$, $\lambda = - 0.1$, $G({{\theta }_{n}}) = 1 + 2 * {{\theta }_{n}} + t * \theta _{n}^{2}$) | 4 | 0.1552e–96 | 4.00 | |
Kung-Traub [11] | 4 | 0.2972e–132 | 4.00 | |
Chebyshev-Halley [11] | 4 | 0.2847e–118 | 4.00 |
Таблица 6.
${{f}_{3}} = ({{x}^{6}} + {{x}^{{ - 6}}} + 4)(x - 1)sin{{x}^{2}}$, ${{x}_{0}} = 0.8$, $x* = 1$ [13]
Методы | $n$ | ${{\bar {\tau }}_{n}}$ | $\left| {{{x}_{n}} - x{\kern 1pt} *} \right|$ | $\rho $ |
---|---|---|---|---|
(3.20) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$) | 3 | (3.21) | 0.1344e–53 | 4.99 |
(3.20) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 4 | (3.32) | 0.2239e–250 | 5.00 |
(3.36) (${{\lambda }_{n}} = - {{\Delta }_{n}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 4 | 0.5113e–183 | 5.00 | |
(3.33)–(3.35) [8] (${{\lambda }_{n}} = - H_{4}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 4 | 0.1142e–213 | 5.00 | |
(3.20) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 4 | (3.30) | 0.2116e–259 | 6.00 |
(3.31) (${{\lambda }_{n}} = - {{\Delta }_{n}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 3 | 0.1080e–60 | 5.96 | |
(3.1) (${{\lambda }_{n}} = - f_{n}^{{''}}{\text{/}}2f_{n}^{'}$, ${{\lambda }_{0}} = - 0.1$) | 4 | (4.18) | 0.1802e–315 | 7.00 |
(4.20) (${{\lambda }_{n}} = - N_{4}^{{''}}({{x}_{n}}){\text{/}}2N_{4}^{'}({{x}_{n}})$, ${{\lambda }_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$) | 3 | (3.21) | 0.6532e–107 | 7.03 |
Dzunic [13] (${{p}_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$), $g({{\theta }_{n}}) = 1 + {{\theta }_{n}}$ | 3 | 0.1364e–87 | 7.05 | |
Cordero [14] (${{\lambda }_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$) | 3 | 0.8409e–80 | 7.04 | |
Kansal [2] (${{\lambda }_{0}} = - 0.1$, ${{\gamma }_{0}} = - 0.01$), $\alpha = \beta = 1{\text{/}}2$ | 3 | 0.9084e–72 | 7.02 |
Из табл. 1–6 видно, что результаты расчетов полностью подтверждают теоретический порядок сходимости, полученный в предыдущих разделах.
6. ВЫВОДЫ
Мы предлагаем новый класс оптимальных двухточечных итерационных методов, не содержащих производные, которые включают в себя два свободных параметра. Впервые мы нашли точные аналитические формулы для оптимальных значений этих параметров, что позволяет повышать порядок сходимости. На этой основе мы предлагаем новые итерационные методы с высоким порядком сходимости как с памятью, так и без памяти.
Список литературы
Kansal M., Kanwar V., Bhatia S. New modifications of Hansen–Patrick’s family with optimal fourth and eighth orders of convergence // Appl. Math.Comput. 2015. V. 269. P. 507–519.
Kansal M., Kanwar V., Bhatia S. Efficient derivative-free variants of Hansen-Patrick’s family with memory for solving nonlinear equations // Numer. Algor. 2016. V. 73. P. 1017–1036.
Zhanlav T., Ulziibayar V., Chuluunbaatar O. Necessary and sufficient conditions for the convergence of two- and three-point Newton-type iterations // Comput. Math. Math. Phys. 2017. V. 57. P. 1090–1100.
Zhanlav T., Chuluunbaatar O., Ulziibayar V. Accelerating the convergence of Newton-type iterations // J. Numer. Anal. Approx. Theory. 2017. V. 46. P. 162–180.
Zhanlav T., Mijiddorj R., Otgondorj Kh. Constructive theory of designing optimal eighth-order derivative-free methods for solving nonlinear equations // AM. J. Comput. Math. 2020. V. 10. P. 100–117.
Petković L.D., Petković M.S., Neta B. On optimal parameter of Laguerre’s family of zero-finding methods // Inter. Jourmal of Comput. Math. 2018. V. 95. 692–707.
Zhanlav T., Chuluunbaatar O., Otgondorj Kh. A derivative-free families of optimal two-and three-point iterative methods for solving nonlinear equations // Comput. Math. Math. Phys. 2019. V. 59. P. 920–936.
Wang X., Zhang T. A new family of Newton-type iterative methods with and without memory for solving nonlinear equations // Calcolo 2014. V. 51. P. 1–15.
Wang X. A new accelerating technique applied to a variant of Cordero–Torregrosa method // J. Comput. Appl. Math. 2018. V. 330. P. 695–709.
Petković M.S., Ilic S., Dzunić J. Derivative-free two-point methods with and without memory for solving nonlinear equations // Appl. Math. Comput. 2010. V. 217. P. 1887–1895.
Argyros I.K., Kansal M., Kanwar V., Bajaj S. Higher-order derivative-free families of Chebyshev-Halley type methods with or without memory for solving nonlinear equations // Appl. Math. Comput. 2017. V. 315. P. 224–245.
Lotfi T., Soleymani F., Ghorbanzadeh M., Assari P. On the construction of some tri-parametric iterative methods with memory // Numer. Algor. 2015. V. 70. P. 835–845.
Dzunić J. On efficient two-parameter methods for solving nonlinear equations // Numer. Algor. 2013. V. 63. P. 549–569.
Cordero A., Lotfi T., Bakhtiari P., Torregrosa J.R. An efficient two-parametric family with memory for nonlinear equations // Numer. Algor. 2015. V. 68. P. 323–335.
Дополнительные материалы отсутствуют.
Инструменты
Журнал вычислительной математики и математической физики