Журнал вычислительной математики и математической физики, 2019, T. 59, № 12, стр. 2111-2128

Метод стартовой площадки в многоэкстремальных задачах многокритериальной оптимизации

А. В. Лотов 1*, А. И. Рябиков 1

1 ВЦ ФИЦ ИУ РАН
119333 Москва, ул. Вавилова, 40, Россия

* E-mail: avlotov@yandex.ru

Поступила в редакцию 08.07.2019
После доработки 08.07.2019
Принята к публикации 05.08.2019

Полный текст (PDF)

Аннотация

Предлагается новый метод аппроксимации оболочки Эджворта–Парето множества достижимых критериальных векторов в задачах многокритериальной оптимизации, характеризующихся наличием большого числа локальных экстремумов критериальных функций. Метод основан на построении стартовой площадки – такого подмножества множества допустимых решений, что градиентные процедуры локальной оптимизации критериев и их функций (сверток), стартующие из этих точек, приводят к эффективным решениям задачи многокритериальной информации. В данной работе для построения стартовой площадки используется метод инжекции оптимумов, являющийся гибридом обычного мультистарта и генетического алгоритма аппроксимации границы Парето. Показывается, что предлагаемый метод стартовой площадки может также быть использован для аппроксимации эффективной оболочки невыпуклого многомерного множества. Приводятся результаты теоретического исследования метода стартовой площадки, а также результаты и экспериментального исследования метода стартовой площадки на основе прикладной проблемы построения правил управления каскадом водохранилищ, сводящейся к сложной задаче многокритериальной информации с очень большим числом локальных экстремумов сверток критериев. Библ. 26. Фиг. 10.

Ключевые слова: нелинейная многокритериальная оптимизация, граница Парето, оболочка Эджворта–Парето, эффективная оболочка невыпуклого множества, аппроксимация оболочки Эджворта–Парето, аппроксимация эффективной оболочки многомерного множества.

ВВЕДЕНИЕ

Аппроксимация оболочки Эджворта–Парето (ОЭП) множества достижимых критериальных векторов используется в рамках таких подходов к решению задач многокритериальной оптимизации (МКО) [1], в которых пользователь (эксперт или лицо, принимающее решение, ЛПР) выбирает решение на основе анализа недоминируемой границы (границы Парето) множества достижимых критериальных векторов [2]–[6]. Аппроксимация ОЭП применяется потому, что, во-первых, непосредственная аппроксимация границы Парето связана с затруднениями, вызванными ее неустойчивостью по отношению к возмущениям параметров задачи [7], и, во-вторых, аппроксимация ОЭП имеет ряд преимуществ перед аппроксимацией границы Парето при ее визуализации. Эти преимущества используются в подходе, основанном на аппроксимации ОЭП и на дальнейшей визуализации границы Парето с помощью карт решений – наборов двумерных сечений ОЭП (см. [8], [9], где описаны методы аппроксимации ОЭП и практические приложения в линейных и выпуклых задачах многокритериальной оптимизации (МКО)). Для нелинейных невыпуклых задач МКО, характеризующихся наличием локальных экстремумов функций (сверток) критериев, были предложены адаптивные методы [10], [11], основанные на переносе идей мультистарта [12] на задачи МКО. В связи с тем, что в случае сложных нелинейных задач МКО, характеризующихся наличием очень большого числа локальных экстремумов сверток критериев, методы [10], [11] оказались непригодны, для аппроксимации ОЭП в многоэкстремальных задачах МКО были предложены альтернативные методы, основанные на гибридизации классических методов оптимизации [12], использующих градиенты функций, и генетических алгоритмов [5], [13]. В частности, можно использовать метод инжекции оптимумов [14] и предлагаемый далее метод стартовой площадки (МСП), который основан на предварительном построении стартовой площадки – такого подмножества множества допустимых решений, что градиентные процедуры локальной оптимизации сверток, стартующие из его точек, в совокупности приводят к эффективным решениям задачи МКО. В данной работе стартовая площадка строится с помощью метода инжекции оптимумов.

Статья имеет следующую структуру. В разд. 1 дается общая формулировка задачи аппроксимации ОЭП. В разд. 2 показывается, как методы аппроксимации ОЭП могут быть использованы для аппроксимации эффективной оболочки невыпуклого многомерного множества. В третьем разделе описывается метод стартовой площадки (МСП). Раздел 4 посвящен теоретическому анализу его свойств. В разд. 5 приводятся результаты экспериментального изучения МСП. Сначала кратко описывается использовавшаяся в вычислительном эксперименте многокритериальная задача выбора правила управления каскадом водохранилищ, сводящаяся к сложной задаче МКО с очень большим числом локальных экстремумов сверток критериев задачи. Далее приводятся результаты экспериментов с этой задачей, направленных на сравнение результатов аппроксимации ОЭП с помощью МСП, известного генетического алгоритма NSGA-II и метода инжекции оптимумов. В заключение описываются планы дальнейшего совершенствования предлагаемого метода.

1. ЗАДАЧА МКО

Рассмотрим общую формулировку задачи МКО [1]. Пусть совокупность допустимых решений является компактным множеством $X \subset {{{\text{R}}}^{n}}$. Пусть для $x \in {{{\text{R}}}^{n}}$ значения компонент вектора критериев оптимизации $y \in {{{\text{R}}}^{m}}$ задаются вектор-функцией y = f(x). Для определенности рассмотрим задачу многокритериальной минимизации, т.е. будем считать, что желательно уменьшение значения каждого из отдельных критериев при неизменных остальных. Точнее говоря, будем считать, что критериальная точка y' более предпочтительна, чем точка y (другими словами, y' доминирует y по Парето), если y' ≤ y и y' ≠ y. Решением задачи многокритериальной минимизации являются паретова (недоминируемая) граница P(Y) множества достижимых критериальных векторов Y = f(X), определяемая как

$P\left( Y \right) = \left\{ {y \in Y:\left\{ {y{\kern 1pt} ' \in Y:y{\kern 1pt} ' \leqslant y,\;y{\kern 1pt} ' \ne y} \right\} = \emptyset } \right\},$
и совокупность $P(X)$ точек X, порождающих P(Y). Совокупность $P(X)$ называется множеством решений, оптимальных (эффективных) по Парето. Оболочка Эджворта–Парето (ОЭП) множества Y = f(X) в задачах многокритериальной минимизации определяется как Y* = Y + ${\text{R}}_{ + }^{m}$, где ${\text{R}}_{ + }^{m}$ – неотрицательный конус пространства ${\text{R}}_{{}}^{m}$ и ОЭП может быть представлена соотношением
$Y{\kern 1pt} * = \{ y \in {{{\text{R}}}^{m}}:y \geqslant f(x),\;x \in X\} .$
Как видно, кроме точек, принадлежащих Y, множество Y* содержит недостижимые точки, доминируемые точками Y. При этом границы Парето обоих множеств совпадают [1]. Благодаря этому, визуализация Y* позволяет получить информацию о границе Парето. Важно, что доминируемые границы множества Y, затрудняющие визуализацию при m > 2, исчезают при переходе к множеству Y*, что в значительной степени облегчает визуализацию P(Y). Отметим, что иногда, особенно в экономических проблемах, ОЭП называют Free Disposal Hull. На фиг. 1 слева изображено (для m = 2) невыпуклое множество Y = f(X), а справа, кроме Y, жирной линией изображена его граница Парето. При этом ОЭП заштриховано, а его граница, не совпадающая с границей Y, обозначена штриховой линией.

Фиг. 1.

В случае нелинейных невыпуклых задач МКО предлагается строить внутреннюю аппроксимацию ОЭП в виде

(1.1)
$T{\kern 1pt} * = \cup \{ y + {\text{R}}_{ + }^{m}:y \in T\} ,$
задаваемую конечным числом точек $T \subset Y$ (так называемой базой аппроксимации). Отметим, что T* – это ОЭП множества T. Такой способ аппроксимации границы Парето и ОЭП проиллюстрирован на фиг. 2, где изображена часть границы Парето множества Y, четыре точки базы аппроксимации и четыре конуса $y + {\text{R}}_{ + }^{m}$, а также аппроксимация ОЭП (заштрихована). В идеале точки базы T должны принадлежать P(Y), поэтому в случае использования аппроксимации (1.1) задачи аппроксимации P(Y) и ОЭП близки между собой, отличаясь лишь понятием отклонения аппроксимации от аппроксимируемого множества. Отметим, что одновременно с базой аппроксимации обычно строится и список допустимых решений, порождающих эту базу.

Фиг. 2.

Аппроксимация ОЭП, прежде всего, предназначена для использования в рамках подхода на основе диалоговых карт решений/метода достижимых целей (ДКР/МДЦ), являющегося способом поиска предпочтительных решений в задачах многокритериальной оптимизации [8], [9], основанным на визуализации. В ДКР/МДЦ для визуализации границы Парето используются карты решений, т.е. наборы двумерных сечений аппроксимации ОЭП. В выпуклом случае в задачах с m критериями используются обычные двумерные сечения, каждое из которых является совокупностью таких точек плоскости двух критериев, расположенных на осях, которые принадлежат ОЭП вместе с фиксированными значениями остальных m-2 критериев. В невыпуклом случае используются “толстые” двумерные сечения аппроксимации ОЭП, каждое из которых представляет собой объединение обычных сечений, получаемых при принадлежности значений каждого из остальных m-2 критериев некоторому заданному диапазону. Поэтому в нелинейном невыпуклом случае, рассматриваемом в статье, для получения одного “толстого” сечения требуется

• указать два критерия, в плоскости которых будет изображено сечение;

• задать диапазоны значений остальных m-2 критериев.

Поскольку аппроксимация ОЭП в нелинейных невыпуклых задачах строится в виде (1.1), т.е. аппроксимация задается списком точек базы и указанием направлений улучшения значений критериев, задача построения одного “толстого” сечения может быть решена очень быстро. Для того чтобы получить карту решений, требуется среди m-2 критериев выделить еще один (“третий”, цветовой) критерий, диапазон значений которого разбивается на несколько отрезков. Каждому отрезку значений третьего критерия соответствует одно “толстое” сечение, которое изображается своим цветом. Сечения накладываются одно на другое. Как известно [8], [9], границы Парето двумерных сечений ОЭП при монотонном изменении третьего критерия не пересекаются, что делает удобным использование карты решений для изучения влияния третьего критерия на двумерное сечение. При этом становится ясна связь недоминируемых значений всех трех критериев одновременно. Диапазон остальных критериев должен быть установлен заранее с помощью подвижных бегунков на прокрутках, расположенных под картой решений. Имеется также возможность заранее сжать диапазон любого из критериев на все время исследования. Использование этих средств позволяет изучить влияние расширения или сжатия диапазонов остальных m-3 критериев на карту решений.

Пример визуализации многомерной ОЭП приведен на фиг. 3. Здесь изображено 9 “толстых” сечений ОЭП, наложенных одно на другое. Они даны различными оттенками серого (различными цветами на дисплее). Под картой решений расположены прокрутки, позволяющие быстро менять диапазоны значений критериев, соответствующих прокруткам. На фигуре можно сразу увидеть многие особенности границы Парето. В частности, сразу видно противоречие между критерием, расположенным на горизонтальной оси, и двумя другими критериями. Так, точке В, соответствующей минимуму этого критерия, соответствуют большие значения двух других. Наоборот, в точке А, соответствующей минимуму критерия, расположенного на вертикальной оси, значение цветового критерия не слишком велико. Более подробно эта карта решений обсуждается в [15].

Фиг. 3.

Кроме задач МКО, методы аппроксимации ОЭП могут быть использованы и в других задачах, например, для аппроксимации так называемой эффективной оболочки невыпуклого многомерного множества.

2. АППРОКСИМАЦИЯ ЭФФЕКТИВНОЙ ОБОЛОЧКИ НЕВЫПУКЛОГО МНОГОМЕРНОГО МНОЖЕСТВА

Понятие эффективной оболочки невыпуклого компактного многомерного множества $y \in {{{\text{R}}}^{m}}$ было введено в работе [16]. Здесь мы не будем давать общего формального определения этого понятия, ограничившись случаем множества, заданного отображением. Рассмотрим, например, невыпуклое компактное множество $y \in {{{\text{R}}}^{m}}$, являющееся образом некоторого компактного множества $X \subset {{{\text{R}}}^{n}}$, т.е. Y = f(X). В [17] предложен следующий подход к решению задачи аппроксимации эффективной оболочки многомерного множества, являющегося образом некоторого компактного множества.

Сформулируем набор задач МКО с множеством допустимых решений $X \subset {{{\text{R}}}^{n}}$, в которых координаты вектора $y = f(x)$ являются критериями. В каждой из этих задач несколько координат вектора $y \in {{{\text{R}}}^{m}}$ желательно максимизировать, а остальные координаты желательно минимизировать. Таким путем можно сформулировать ${{2}^{m}}$ различных задач МКО, имеющих одно и то же множество допустимых решений $X \subset {{{\text{R}}}^{n}}$. При этом ОЭП не совпадают для различных задач МКО.

Рассмотрим пример для m = 2. На фиг. 4 представлено четыре ОЭП для четырех задач МКО с одним и тем же множеством Y = f(X), но отличающихся направлениями улучшения критериев. Границы множества Y даны сплошными линиями, а границы оболочки Эджворта–Парето (там, где они не совпадают с границей Y) – штриховыми. ОЭП заштрихованы. ОЭП в левой нижней фигуре (граница ОЭП проходит через точки H и G) соответствует задаче минимизации обоих критериев, а фигура, расположенная справа сверху (граница ОЭП проходит через точки A, B, C и D), соответствует максимизации обоих критериев. ОЭП в левой верхней фигуре (граница ОЭП проходит через точки H, K, L и A) соответствует задаче минимизации критерия y1 и максимизации критерия y2. Наоборот, ОЭП в правой нижней фигуре соответствует минимизации критерия y2 и максимизации критерия y1 (граница ОЭП проходит через точки D, E, F и G).

Фиг. 4.

В [17] показано, что эффективная оболочка множества Y = f(X) является пересечением оболочек Эджворта–Парето, соответствующих всевозможным задачам МКО. На фиг. 5 заштрихована эффективная оболочка двумерного множества Y, являющаяся пересечением всех четырех оболочек Эджворта–Парето, приведенных на фиг. 4.

Фиг. 5.

Для каждой из ${{2}^{m}}$ сформулированных задач МКО соответствующее множество ОЭП может быть аппроксимировано. Ясно, что при практической реализации метода величина m не должна значительно превышать дюжины. Отметим, что построение эффективной оболочки можно легко реализовать с использованием параллельных вычислений, поскольку процессы аппроксимации ОЭП в различных задачах МКО не обмениваются информацией.

Итак, проблема аппроксимации эффективной оболочки невыпуклого многомерного множества сводится к построению аппроксимации ОЭП для нелинейной невыпуклой задачи МКО. Методы решения такой задачи аппроксимации рассмотрены в остальных разделах статьи.

3. МЕТОД СТАРТОВОЙ ПЛОЩАДКИ

Напомним, что нам требуется разработать метод аппроксимации ОЭП в нелинейных задачах МКО достаточно большой размерности (сотни переменных) с существенным числом критериев, заданных на основе использования вычислительного модуля. Главная сложность рассматриваемых задач МКО, мешающая использовать методы многокритериального мультистарта [10], [11] – наличие у сверток критериев очень большого числа локальных экстремумов. В таких задачах глобальный экстремум свертки критериев можно найти только тогда, когда процедуры локальной оптимизации стартуют из точек, принадлежащих области притяжения локальных экстремумов, близких по значению к глобальному оптимуму свертки. Другими словами, стартовые точки процедур локальной оптимизации должны быть такими, чтобы ловушки в виде неэффективных локальных экстремумов не мешали методам локальной оптимизации находить критериальные точки, близкие к границе Парето. Это используется, например, в [18] в рамках диалоговых процедур решения задач МКО, не связанных с аппроксимацией ОЭП. Метод, предлагаемый в данной работе, основан на построении некоторого подмножества совокупности таких стартовых точек. Любое подмножество допустимого множества, точки которого обладают таким свойством, будем называть стартовой площадкой (launch pad). На основе использования стартовой площадки можно попытаться найти хорошую аппроксимацию ОЭП с помощью многокритериального мультистарта. Сформулированная идея является главной составляющей предлагаемого далее метода аппроксимации ОЭП, поэтому он именуется методом стартовой площадки (МСП). Главный вопрос, который необходимо решить при реализации МСП, состоит в том, как построить требуемое подмножество стартовых точек. Как уже говорилось, в данной работе в качестве средства формирования стартовой площадки применяется метод инжекции оптимумов (ИО), предложенный в [14] для аппроксимации ОЭП и являющийся гибридом глобальной оптимизации отдельных критериев и генетического алгоритма аппроксимации границы Парето. Как известно, для генетических алгоритмов аппроксимации границы Парето наличие многочисленных локальных экстремумов критериальных функций и их сверток не является помехой. Их недостатком является медленная сходимость. Как показали эксперименты, метод инжекции оптимумов в определенной степени преодолевает этот недостаток, сохраняя нечувствительность генетических алгоритмов к наличию локальных экстремумов критериальных функций и их сверток. Это достигается за счет того, что в популяции генетического алгоритма регулярно включаются оптимумы отдельных критериев задачи МКО, найденные заранее.

После построения стартовой площадки в методе МСП осуществляется итеративная аппроксимация ОЭП на основе использования идей многокритериального мультистарта, например, на основе адаптации двухфазного метода аппроксимации ОЭП. При этом в отличие от двухфазного метода стартовые точки выбираются не из всего множества допустимых решений, а только из точек стартовой площадки. Благодаря этому, значительной части процессов локальной оптимизации свертки удается закончиться в локальных экстремумах, близких по значению свертки к ее глобальному оптимуму.

В современной реализации метода ИО используется генетический алгоритм NSGA-II [5], [19], считающийся одним из наиболее популярных современных генетических методов аппроксимации границы Парето [20]. Заметим, что алгоритм NSGA-II генерирует большое число точек, не доминирующих одна другую. Такое свойство генетических алгоритмов заставляет авторов разрабатывать способы отбрасывания большей части недоминируемых точек. Наоборот, в МСП эта особенность генетических алгоритмов используется – стартовые точки многокритериального мультистарта отбираются случайным образом среди многочисленных точек стартовой площадки. Благодаря этому удается построить статистические правила остановки МСП. Обсудим правила остановки процессов аппроксимации ОЭП, применяемые в МСП, более подробно.

Построение правила остановки в МСП основано на использовании понятия оптимизационной полноты аппроксимации, которая является развитием понятия полноты аппроксимации компактных множеств [21] и была введена в рамках разработки двухфазного метода аппроксимации ОЭП [10], [11]. Поскольку идеи двухфазного метода используются на оптимизационной стадии МСП, остановимся на них более подробно.

Двухфазный метод аппроксимация множества ${\text{ }}Y*$ является итеративным. На k-й итерации генерируется выборка HN из N случайных равномерно распределенных точек множества допустимых решений X; далее из каждой точки выборки x0HN стартует процедура локальной оптимизации некоторой свертки критериев, параметры которой выбираются адаптивно, а именно, зависят от ${{y}^{0}} = f({{x}^{0}})$. Например, в [11] предлагается минимизация свертки Чебышёва

$\varphi (y) = \max \{ {{\lambda }_{j}}({{f}_{j}}(x--y_{j}^{*}),\;j = 1,2,..,m\} + \delta \sum\limits_{j = {\text{1}}}^m {{{f}_{j}}(x)} ,$
где $y{\text{*}}$ – идеальная точка задачи МКО, δ – заданное малое число, δ > 0. Величины λj определяются стартовой точкой x0 процесса локальной оптимизации следующим образом:
${{\lambda }_{j}} = {{[{{f}_{j}}({{x}^{0}})--y_{j}^{*}]}^{{ - 1}}},\quad j = 1,2,..,m,$
при  fj(x0) > $y_{j}^{*}$. В результате работы процедуры локальной оптимизации находятся локальные оптимумы, которые обозначаются $\Phi {\text{(}}{{x}^{0}})$.

Обозначим через $T_{{k - 1}}^{*}$ внутреннюю аппроксимацию $Y{\kern 1pt} {\text{*}}$, построенную на предыдущих итерациях. Пусть для $\varepsilon \geqslant 0$ под $({{T}_{{k - 1}}})_{\varepsilon }^{*}$ понимается $\varepsilon $-окрестность множества $T_{{k - 1}}^{*}$. Тогда под оптимизационной полнотой аппроксимации множества $Y{\kern 1pt} {\text{*}}$ множеством $({{T}_{{k - 1}}})_{\varepsilon }^{*}$ понимается вероятность $\eta _{\Phi }^{{}}({{T}_{{k - 1}}},\varepsilon )$ попадания точки $y = f(\Phi {\text{(}}{{x}^{0}}))$ в $\varepsilon $-окрестность множества $T_{{k - 1}}^{*}$ при равномерном распределении ${{x}^{0}}$ на $X$. Зависимость величины $\eta _{\Phi }^{{}}({{T}_{{k - 1}}},\varepsilon )$ от $\varepsilon $, заданную при $\varepsilon \geqslant 0$, принято называть функцией оптимизационной полноты аппроксимации множества ${\text{ }}Y{\text{*}}$ множеством $({{T}_{{k - 1}}})_{\varepsilon }^{*}$. Смысл оптимизационной полноты состоит в том, что величина $1 - \eta _{\Phi }^{{}}({{T}_{{k - 1}}},\varepsilon )$ является вероятностью получения (с помощью процесса локальной оптимизации используемой свертки критериев, начинающегося в случайной точке $X$, т.е. с помощью нахождения $\Phi {\text{(}}{{x}^{0}})$) критериальной точки, находящейся от $T_{{k - 1}}^{*}$ на расстоянии, превышающем $\varepsilon $.

Для приближенного нахождения величины $\eta _{\Phi }^{{}}({{T}_{{k - 1}}},\varepsilon )$ можно использовать ее выборочное значение, рассчитываемое на основе $y = f(\Phi {\text{(}}{{x}^{0}}))$ для x0HN, где HN – случайная выборка объемом N. Под выборочной оптимизационной полнотой аппроксимации множества $Y{\kern 1pt} {\text{*}}$ множеством $({{T}_{{k - 1}}})_{\varepsilon }^{*}$ понимается величина

$\eta _{\Phi }^{N}({{T}_{{k - 1}}},\varepsilon ) = \frac{{n(\varepsilon )}}{N},$
где $n(\varepsilon )$ – число точек множества f(Φ(x0)), попавших в $({{T}_{{k - 1}}})_{\varepsilon }^{*}$. Функция $\eta _{\Phi }^{N}({{T}_{{k - 1}}},\varepsilon )$ является неубывающей функцией $\varepsilon $, причем существует конечное число ${{\varepsilon }_{{\max }}} = \min \{ \varepsilon :\eta _{\Phi }^{N}(\varepsilon ) = 1\} $, которое называется выборочным радиусом полного покрытия множества ${\text{ }}Y{\kern 1pt} {\text{*}}$ множеством $({{T}_{{k - 1}}})_{\varepsilon }^{*}$. Последнее название связано с тем, что при $\varepsilon = {{\varepsilon }_{{\max }}}$ множество $({{T}_{{k - 1}}})_{\varepsilon }^{*}$ полностью покрывает совокупность точек f(Φ(x0)).

В работе [22] показано, что в двухфазном методе при достаточно больших N функции $\eta _{\Phi }^{{}}({{T}_{{k - 1}}},\varepsilon )$ и $\eta _{\Phi }^{N}({{T}_{{k - 1}}},\varepsilon )$ близки, что позволяет использовать график $\eta _{\Phi }^{N}({{T}_{{k - 1}}},\varepsilon )$ для изучения оптимизационной полноты аппроксимации. Благодаря этому эксперт может осуществить контроль за процедурой аппроксимации и, зная трудоемкость улучшения качества аппроксимации, остановить процесс в подходящий момент. График $\eta _{\Phi }^{N}({{T}_{{k - 1}}},\varepsilon )$ также может быть использован в правиле остановки, проверяемом автоматически. В частности, автоматическое правило остановки может базироваться на значении этой функции при некоторой величине $\varepsilon {\text{*}}$ или просто на выборочном радиусе полного покрытия $\varepsilon _{{_{{\max }}}}^{k}$ на k-й итерации. В первом случае требуется выполнение условия

(3.1)
$\eta _{\Phi }^{N}({{T}_{{k - 1}}},\varepsilon *) > \tilde {\eta },$
где $\tilde {\eta }$ – заданный порог оптимизационной полноты аппроксимации, а во втором – условия
(3.2)
$\varepsilon _{{_{{\max }}}}^{k} < \tilde {\varepsilon },$
где $\tilde {\varepsilon }$ – заданный порог радиуса полного покрытия. Если правило остановки не выполняется, критериальные образы полученных новых локальных оптимумов добавляются в базу аппроксимации, после чего оттуда исключаются доминируемые точки.

В данной работе описанные свойства оптимизационной полноты аппроксимации переносятся на предлагаемый метод. Как уже говорилось, в целом МСП состоит из двух шагов, а именно, из шага построения стартовой площадки и из шага итеративной локальной оптимизации, являющегося какой-либо реализацией многокритериального мультистарта. Перейдем к более подробному описанию метода стартовой площадки, в рамках которого на первом шаге используется метод инжекции оптимумов [14], а на шаге 2 используется модификация двухфазного метода [11].

3.1. Схема метода стартовой площадки

Шаг 1. Построение стартовой площадки, обозначаемой ${{X}_{{{\text{LP}}}}}$. Этот шаг состоит из двух следующих частей.

Шаг 1.1. Достаточно точно решаются задачи глобальной минимизации частных критериев. Решение этой задачи может быть основано, скажем, на использовании какого-либо метода мультистарта. Обозначим совокупность решений задач глобальной минимизации частных критериев, через ${{X}_{y}}$. Пусть их число равно ${{m}_{0}} \leqslant m$ (некоторые из найденных решений могут совпадать).

Шаг 1.2. Исходная популяция ${{Q}_{0}}$ генетического алгоритма строится следующим образом: совокупность рекордистов ${{X}_{y}}$ дополняется случайными точками из множества допустимых решений $X$ до некоторого заранее заданного достаточно большого числа ${{N}_{{{\text{POP}}}}}$ (скажем, 10 тысяч точек). Далее выполняются итерации генетического алгоритма, включающего стохастические операции кроссовера, мутации и отбора. Заранее должны быть заданы желаемое число точек в популяции ${{Q}_{k}}$, получаемой на k-й итерации генетического алгоритма, k = 1, …, в том числе выходном множестве генетического алгоритма (пусть это также будет ${{N}_{{{\text{POP}}}}}$), и правило завершения шага 2. Это правило может быть основано, например, на проверке аналога неравенства (3.2), который может быть сформулирован и для генетического алгоритма, например, в виде

(3.3)
$\varepsilon _{{_{{\max }}}}^{k} < {{\tilde {\varepsilon }}_{{{\text{gen}}}}},$
где с заданным порогом ${{\tilde {\varepsilon }}_{{{\text{gen}}}}}$ сравнивается максимальное отклонение $\varepsilon _{{_{{\max }}}}^{k}$ критериальных точек $f({{Q}_{k}})$, полученных на k-м шаге генетического метода.

Стартовая площадка ${{X}_{{{\text{LP}}}}}$ – это множество недоминируемых решений, полученное после завершения шага 1.2 и дополненное точками ${{X}_{y}}$.

Шаг 2. Выполняется итерационная процедура многокритериального мультистарта, причем исходные точки (порядка нескольких сотен) берутся случайным образом с равной вероятностью из ${{X}_{{{\text{LP}}}}}$. Здесь заранее должны быть заданы объeм случайной выборки точек на каждой итерации ${{N}_{{{\text{OPT}}}}}$ (обычно порядка одной или нескольких сотен), параметры правила остановки алгоритма, а также используемое параметрическое семейство сверток критериев. Рассмотрим итерацию процедуры. Обозначим ${{T}_{0}} = f({{X}_{0}})$, где в качестве ${{X}_{0}}$ берутся точки множества ${{X}_{y}}$.

Итерация k шага 2

Считается, что на предыдущих итерациях процедуры уже построены конечное множество ${{X}_{{k - 1}}} \subset X$ и соответствующая база аппроксимации ${{T}_{{k - 1}}} = f({{X}_{{k - 1}}})$.

1. На ${{X}_{{{\text{LP}}}}}$ генерируется случайная выборка ${{H}^{k}}$ объемом ${{N}_{{{\text{OPT}}}}}$, причем вероятность включения в выборку точки из множества ${{X}_{{{\text{LP}}}}}$ для всех точек одинакова.

2. Для каждой точки ${{x}^{0}} \in {{H}^{k}}$ рассчитывается совокупность параметров свертки критериев, зависящая от $f({{x}^{0}})$, и решается задача локальной оптимизации полученной свертки, где эта точка ${{x}^{0}}$ берется в качестве стартовой. В итоге для всех ${{x}^{0}} \in {{H}^{k}}$ находятся локальные экстремумы Φ(x0).

3. При использовании на шаге 2 экспертного решения о завершении работы рассчитывается выборочная функция $\eta _{\Phi }^{N}({{T}_{{k - 1}}},\varepsilon )$, на основании анализа которой эксперт принимает решение об остановке или продолжении процедуры. В случае автоматической проверки правила остановки рассчитывается требуемая характеристика этой функции, например, выборочный радиус полного покрытия на k-й итерации $\varepsilon _{{_{{\max }}}}^{k}$, и проверяется условие завершения работы на шаге 2 (типа (3.1) или (3.2)). Если условие выполняется (либо соответствующее решение принято экспертом), шаг 2 завершается. В противном случае переходим к следующему пункту.

4. Множество ${{X}_{k}}$ строится на основе объединения ${{X}_{{k - 1}}}$ и $\Phi ({{H}^{k}})$ и исключения доминируемых решений. Строится база аппроксимации ${{T}_{k}} = f({{X}_{k}})$. Осуществляется переход к следующей итерации.

Обозначим базу аппроксимации, построенную после завершения шага 2, через ${{T}_{{{\text{OPT}}}}}$, а множество прообразов ${{T}_{{{\text{OPT}}}}}$ через ${{X}_{{{\text{OPT}}}}}$. Описание алгоритма МСП завершено. Для улучшения базы аппроксимации целесообразно объединение множеств ${{X}_{{{\text{OPT}}}}}$ и ${{X}_{{{\text{LP}}}}}$, дополненное исключением доминируемых точек.

4. ТЕОРЕТИЧЕСКОЕ ИССЛЕДОВАНИЕ МЕТОДА СТАРТОВОЙ ПЛОЩАДКИ

Рассмотрим свойства идеализированного варианта МСП. В нем используется идеализированный генетический алгоритм аппроксимации границы Парето, ставящий случайным образом в соответствие любому конечному подмножеству из ${{N}_{{{\text{POP}}}}}$ точек $X$ конечное подмножество множества $X$, обозначаемое ${{X}_{{{\text{LP}}}}}$ и состоящее также из ${{N}_{{{\text{POP}}}}}$ точек.

Введем обозначения. Пусть множество рекордистов ${{X}_{y}}$ содержит ${{m}_{0}}$ точек. Пусть ${{\Lambda }_{{{{N}_{{{\text{POP}}}}}}}}$ – совокупность всех подмножеств множества $X$, состоящих из m0 точек множества ${{X}_{y}}$ и $({{N}_{{{\text{POP}}}}} - {{m}_{0}})$ произвольных точек множества $X$. Пусть ${{\Theta }_{{{{N}_{{{\text{POP}}}}}}}}$ – совокупность всех множеств ${{X}_{{{\text{LP}}}}} \subset X$, которые можно получить с помощью генетического алгоритма из множеств ${{\Lambda }_{{{{N}_{{{\text{POP}}}}}}}}$. Тогда генетический алгоритм является стохастическим отображением $G:{{\Lambda }_{{{{N}_{{{\text{POP}}}}}}}} \to {{\Theta }_{{{{N}_{{{\text{POP}}}}}}}}$. Далее рассмотрим множество

$X{\text{'}} = \bigcup\limits_{{{X}_{{{\text{LP}}}}} \in {{\Theta }_{{{{N}_{{{\text{POP}}}}}}}}} {{{X}_{{{\text{LP}}}}}} .$

Поскольку $X{\kern 1pt} {\text{'}} \subseteq X$, в силу компактности $X$ множество $X{\kern 1pt} '$ ограничено.

Предположение 1. На множестве $X{\text{'}} \subseteq X$ существуют $\sigma $-алгебра $B{\text{(}}X{\text{'}})$ и вероятностная мера $\mu {\text{(}}X{\text{'}})$, характеризующая вероятность получения подмножеств $X{\text{'}}$ с помощью отображения G при случайном выборе одного из множеств ${{\Lambda }_{{{{N}_{{{\text{POP}}}}}}}}$.

Сделанное предположение позволяет использовать при изучении второго шага МСП результат, полученный в [23] для двухфазного метода, о близости  выборочной оптимизационной полноты $\eta _{\Phi }^{N}(T,\varepsilon )$ к оптимизационной полноте $\eta _{\Phi }^{{}}(T,\varepsilon )$, задаваемой базой $T$ аппроксимации $T{\kern 1pt} {\text{*}}$ множества $Y{\kern 1pt} {\text{*}}$. Введем обозначение $Y_{{}}^{\Phi } = f(\Phi {\text{(}}X{\text{'}}))$.

Пусть ${\text{ }}{{f}^{{ - 1}}}(y)$ – полный прообраз ${\text{ }}y \in Y_{{}}^{\Phi }$ и $\Phi _{{}}^{{ - 1}}(x)$ – полный прообраз точки $x$, принадлежащей $\Phi {\text{(}}X{\text{'}})$. Предположим, что множество

(4.1)
$\Phi _{{}}^{{ - 1}}({{f}^{{ - 1}}}{\text{ (}}T{\text{*}} \cap Y_{{}}^{\Phi }) \cap \Phi (X{\kern 1pt} {\text{'}}))$
измеримо. Пусть, кроме того,
(4.2)
${\text{ }}P(X) \subset \Phi (X{\text{'}}).$
Отметим, что условие (4.2) означает, что множество $X{\text{'}}$ достаточно “хорошее” в том смысле, что отображение $\Phi $ переводит его в подмножество $X$, содержащее $P(X)$. При этом из (4.2) следует $P(Y) \subset Y_{{}}^{\Phi }$.

Наличие вероятностной меры $\mu {\text{(}}X{\text{'}})$ позволяет рассмотреть вероятность P того, что величина $\eta _{\Phi }^{{}}(T,\varepsilon )$ окажется больше выборочной оценки $\eta _{\Phi }^{N}(T,\varepsilon )$, уменьшенной на некоторую положительную величину β. Точнее говоря, имеет место

Теорема 1. Пусть выполняется предположение 1, множество (4.1) измеримо и выполняется (4.2). Тогда для любого $\beta > 0$ справедлива вероятностная оценка

${\text{P(}}\eta _{\Phi }^{{}}(T,\varepsilon ) > \eta _{\Phi }^{N}(T,\varepsilon ) - \beta ) \geqslant 1 - \exp ( - 2{{N}_{{{\text{OPT}}}}}{{\beta }^{2}}).$
Приведенное утверждение является следствием утверждения, доказанного в [22, теорема 2]. Оно говорит о близости величин $\eta _{\Phi }^{{}}(T,\varepsilon )$ и $\eta _{\Phi }^{N}(T,\varepsilon )$ для достаточно больших ${{N}_{{{\text{OPT}}}}}$, что позволяет использовать график функции $\eta _{\Phi }^{N}(T,\varepsilon )$ для изучения оптимизационной полноты аппроксимации и построения правил остановки типа (3.1) или (3.2).

Рассмотрим теперь вопрос о числе итераций процесса локальной оптимизации. Полученный в [23, теорема 7] результат можно перенести на метод стартовой площадки в случае использования в нем идеализированного генетического метода.

Теорема 2. Пусть выполняются условия теоремы 1. Тогда для любого ${{\varepsilon }_{0}} > 0$ найдется такой номер итерации $K({{\varepsilon }_{0}})$, что $\varepsilon _{{\max }}^{{K({{\varepsilon }_{0}})}} \leqslant {{\varepsilon }_{0}}$, причем для любого $\eta \in (0,1)$ имеет место вероятностная оценка

${\text{P(}}\eta _{\Phi }^{{}}({{T}_{{K({{\varepsilon }_{0}})}}},{{\varepsilon }_{0}}) > \eta ) \geqslant 1 - \exp ( - 2{{N}_{{{\text{OPT}}}}}{{(1 - \eta )}^{2}}),$
где $T_{{K({{\varepsilon }_{0}})}}^{{}}$ – совокупность точек базы аппроксимации, полученной после выполнения итерации $K({{\varepsilon }_{0}})$.

Таким образом, в результате работы предлагаемого алгоритма оказывается построено такое конечное множество точек $T_{{K({{\varepsilon }_{0}})}}^{{}}$, что

• множество ${\text{(}}T_{{K({{\varepsilon }_{0}})}}^{{}}){\text{*}}$ является внутренней аппроксимацией $Y{\text{*}}$;

• множество ${\text{(}}T_{{K({{\varepsilon }_{0}})}}^{{}})_{{{{\varepsilon }_{0}}}}^{*}$ покрывает $Y{\text{*}}$ с оптимизационной полнотой $\eta \in (0,1)$, причем надежность оценки не меньше $1 - \exp ( - 2N{{(1 - \eta )}^{2}})$.

5. ЭКСПЕРИМЕНТАЛЬНОЕ ИССЛЕДОВАНИЕ МЕТОДА СТАРТОВОЙ ПЛОЩАДКИ

В данном разделе МСП сравнивается с другими методами аппроксимации ОЭП на основе экспериментов для одного класса сложных нелинейных прикладных задач МКО – задач разработки правил управления каскадом водохранилищ, характеризующихся заданием модели в виде вычислительного модуля, наличием большого числа разрывных критериев выбора решения и очень большого числа локальных экстремумов сверток критериев. Как показывают эксперименты, описанные в [14], двухфазный метод аппроксимации ОЭП и генетический алгоритм NSGA-II не в состоянии в разумное время построить достаточно точную аппроксимацию ОЭП в этой задаче МКО. Именно поэтому эта модель была использована в экспериментах с методом инжекции оптимумов в [14] и с методом стартовой площадки в данной статье. Ниже дается краткое описание модели и в п. 5.2 МСП сравнивается с NSGA-II, а в п. 5.3 – с методом ИО.

5.1. Задача МКО, используемая в экспериментальной аппроксимации ОЭП

Как уже указывалось, метод стартовой площадки предназначен для аппроксимации ОЭП в том случае, когда свертки критериальных функций имеют большое число локальных экстремумов. К таким задачам относятся многокритериальные задачи разработки правил управления каскадами водохранилищ, расположенных в основном русле реки [15], [18]. Водохранилища используются для регулирования уровня реки, производства электроэнергии, предотвращения наводнений, обеспечения водного транспорта в реке и водоснабжения в населенных пунктах и т.д.

В таких задачах требуется решить задачу построения правил управления, т.е. построения зависимости управления (в данном случае попусков воды через плотины) от состояния системы (уровней водохранилищ). Рассматриваются заданные параметрические классы зависимостей управления от состояния, а задача состоит в выборе параметров этих классов на основе использования значительного числа критериев качества управления. При исследовании системы связь между управлениями и критериями задавалась вычислительным модулем, позволяющим проводить расчеты для различных возможных вариантов правил, но не допускающая аналитическое исследование. Таким образом, оптимизация сверток критериев основывалась на трудоемких вариантных расчетах. Число вариантных расчетов было заранее ограничено величиной порядка 15 миллионов.

Критерии выбора параметров правил отражают экономические, экологические, коммунальные и прочие требования. Поскольку все требования не выполнимы одновременно, в качестве критериев выбора решения берется доля перебоев, т.е. интервалов времени, на которых происходило нарушение требований. Выбор именно таких критериев обусловлен требованиями Минприроды РФ. Для математической формулировки критериев удобно использовать функцию Хэвисайда $\Theta (z)$ от величины ${\text{ }}z$, при${\text{ }}z > 0$ являющейся нарушением какого-либо требования, т.е. функцию, равную нулю при ${\text{ }}z \leqslant 0$ и равную единице при${\text{ }}z > 0$. В качестве примера критерия, связанного с односторонним требованием, приведем критерий, отражающий перебои в производстве электроэнергии на i-й гидроэлектростанции:

(5.1)
$y_{N}^{i} = \frac{1}{{{{t}_{0}}}}\sum\limits_{t = 1}^{{{t}_{0}}} {\Theta (z_{N}^{{i,t}})} ,\quad i = 1, \ldots ,\;I,$
где $z_{N}^{{i,t}} = N_{i}^{*} - N_{i}^{t}$, $N_{i}^{*}$ – требование к выработке электроэнергии на интервале времени t, $N_{i}^{t}$ – фактическая выработка, t0 – число интервалов. Всего рассматривается 24 критерия, их значения желательно уменьшать. Ясно, что критерии принимают значения от 0 до 1. Требуется построить аппроксимацию ОЭП с точностью 0.01, т.е. порядка 1%.

Для расчета значений критериев для какого-либо конкретного правила, т.е. с заданными допустимыми значениями параметров, используется достаточно продолжительный промежуток времени (от нескольких десятков до сотни лет), для которого имеются исторические значения приточности (или искусственный ряд приточности, построенный на основе исторического [24]). После этого по начальным значениям объемов воды в водохранилищах на основе соотношений модели для каждого набора значений параметров правила попуска можно рассчитать попуски и уровни воды на весь период времени. По результатам этих расчетов находятся значения характеристик, для которых сформулированы требования. По реализовавшимся значениям характеристик и заданным заранее требованиям рассчитываются соответствующие отклонения, что позволяет по формулам для критериев найти значения критериев. Более подробное описание и обсуждение модели дано в [15].

Разработанная модель была адаптирована для каскада водохранилищ реки Ангара. В модели, описанной выше, каждый год был разбит на 22 интервала (5 месяцев разбито на три декады, а для 7 месяцев интервалом является месяц целиком). Число параметров правила управления для одного интервала времени не превышало шести, так что правило попуска воды для одного из водохранилищ содержало 132 параметра, а весь каскад, в который были включены три водохранилища, описывался примерно 300 параметрами. Для расчета значений критериев по заданным наборам параметров был подготовлен исторический гидрологический ряд приточности продолжительностью 103 года, содержащий 2266 отрезков времени.

Поскольку критерий является суммой большого числа (порядка нескольких тысяч) функций Хэвисайда от переменных z, описывающих отклонения от требований, т.е. является кусочно-постоянной функцией этих переменных с большим числом точек разрыва, для применения градиентных методов оптимизации был предложен метод эрзац-функций [25], позволяющий строить непрерывные вспомогательные функции, для которых градиентная оптимизация возможна. Приближенное оптимальное значение исходной функции находится на основе значений исходной функции в локальных оптимумах вспомогательной функции.

В вычислительных экспериментах по аппроксимации ОЭП для оценки полученной точности использовалось отклонение δ (в максимальной метрике) аппроксимации ОЭП от контрольной критериальной точки $y\left( {{{\alpha }_{{11}}}} \right)$, заведомо принадлежащей ОЭП. Поскольку именно эта точка была выбрана ЛПР в качестве наиболее предпочтительной точки границы Парето в диалоговой процедуре, описанной в [18], отклонение δ может быть использовано в качестве объективной характеристики точности аппроксимации.

Была проведена большая серия экспериментов по аппроксимации ОЭП с использованием такого метода многокритериального мультистарта как двухфазный метод с использованием различных сверток критериев [14]. Все эксперименты дали качественно одинаковый результат. Общий вывод: двухфазный метод не в состоянии достаточно точно аппроксимировать ОЭП в изучаемой задаче. С другой стороны, исследования [14] показали, что в изучаемой задаче методы мультистарта дают возможность решить задачу глобальной оптимизации для частных критериев, взятых по отдельности. На этом основан метод инжекции оптимумов, используемый в рассматриваемом здесь варианте МСП для построения стартовой площадки.

5.2. Экспериментальное сравнение МСП с генетическим алгоритмом

Экспериментальное сравнение МСП с генетическим алгоритмом NSGA-II осуществлялось на основе аппроксимации ОЭП для описанной выше задачи МКО. Методы сравнивались между собой при одном и том же числе расчетов критериальной функции, которое потребовалось при аппроксимации ОЭП с использованием МСП. При этом около 10 миллионов расчетов критериальной функции было затрачено на шаге 1.1 на построение множества ${{X}_{y}}$ (подробности процесса построения ${{X}_{y}}$ даны в [14]). На шаге 1.2 была сформирована исходная популяция и выполнены итерации генетического алгоритма (без инжекции в популяцию множества ${{X}_{y}}$ на промежуточных шагах) с остановкой по отклонению с порогом ${{\tilde {\varepsilon }}_{{{\text{gen}}}}}$. Были взяты величины ${{N}_{{{\text{POP}}}}} = 10\,000$ и ${{\tilde {\varepsilon }}_{{{\text{gen}}}}} = 0.01$. Стартовая площадка была построена за 545 итераций генетического алгоритма, что потребовало около 5 миллионов расчетов критериальной функции.

На шаге 2 МСП выполнялась процедура многокритериального мультистарта, основанная на локальной минимизации сверток семейства

(5.2)
$\varphi (y,{{y}_{0}}) = \sum\limits_{i = 1}^m {{{\lambda }_{i}}({{y}_{0}}) \cdot y_{i}^{2}} $
с весами ${{\lambda }_{i}}({{y}_{0}})$, $i = 1,\; \ldots ,\;m$, адаптированными к значениям критериев ${{y}^{0}} = f({{x}_{0}})$ в стартовой точке локальной оптимизации ${{x}_{0}}$, а именно
${{\lambda }_{i}}({{y}_{0}}) = 1{\text{/}}y_{i}^{0}\quad {\text{при}}\quad y_{i}^{0} \geqslant {{\delta }_{0}},\quad {{\lambda }_{i}}({{y}_{0}}) = 1\quad {\text{при}}\quad y_{i}^{0} < {{\delta }_{0}},$
где ${{\delta }_{0}}$ – некоторое малое число. Как видно, относительно больший вес имеют критерии с меньшими (но превышающими ${{\delta }_{0}}$!) значениями в стартовой точке. Такие веса использовались для того, чтобы уменьшить влияние критериев с большими значениями в связи тем, что в области больших значений критериев были возможны нежелательные локальные минимумы. В эксперименте полагалось ${{\delta }_{0}} = 0.0001$.

Для решения задач локальной скалярной оптимизации свертки (5.2) использовался упомянутый выше метод эрзац-функций. Для уменьшения затрат времени на расчеты в процедуре многокритериального мультистарта были взяты величины ${{N}_{{{\text{OPT}}}}} = 50$ и $\tilde {\varepsilon } = 0.02$. На первой итерации выборочный радиус полного покрытия оказался равным 0.22, а на второй итерации – равным 0.02. Поэтому процедура шага 2 была остановлена после второй итерации. При этом в результате первой итерации отклонение точки $y\left( {{{\alpha }_{{11}}}} \right)$ от аппроксимации ОЭП достигло значения 0.01, оно осталось таким же после второй итерации. Построенное множество решений обозначено ${{X}_{{{\text{OPT}}}}}$. Окончательное множество решений, обозначенное через ${{X}_{{{\text{LPM}}}}}$, получено в конце шага 2 как совокупность недоминируемых решений объединения стартовой площадки ${{X}_{{{\text{LP}}}}}$ и множества ${{X}_{{{\text{OPT}}}}}$. На основе ${{X}_{{{\text{LPM}}}}}$ была построена соответствующая база аппроксимации ${{T}_{{{\text{LPM}}}}}$. На две итерации шага 2 было потрачено около трех миллионов расчетов критериальной функции.

Итак, для построения аппроксимации ОЭП при указанных параметрах МСП потребовалось около 18 миллионов расчетов критериальной функции. Это число расчетов оказалось достаточно для примерно 1800 итераций алгоритма NSGA-II. Построенную таким образом базу аппроксимации NSGA-II обозначим через ${{T}_{{{\text{NSGA}}}}}$.

Отклонение $\delta $ критериальной точки $y\left( {{{\alpha }_{{11}}}} \right)$ от построенных аппроксимаций ОЭП приведено фиг. 6 и 7. На фиг. 6 отклонение $\delta $ для метода МСП дано в зависимости от номера шага и номера итерации k внутри шага (итерации нумеруются для каждого шага отдельно, для шага 2 они имеют номера 1 и 2). На фиг. 7 отклонение $\delta $ дано для алгоритма NSGA-II, величина отклонения зависит от номера итерации k.

Фиг. 6.
Фиг. 7.

На фиг. 6 ясно видно, что шаг 2 МСП весьма эффективен: хотя одна итерация МСП требовала 1.5 миллионов расчетов, что эквивалентно по затратам приблизительно 150 итерациям NSGA-II, за первую итерацию шага 2 МСП отклонение $\delta $ удалось уменьшить с 0.08 до 0.01. Сравним отклонение точки $y\left( {{{\alpha }_{{11}}}} \right)$ от аппроксимации ОЭП в конце процесса. В случае NSGA-II это отклонение оказалось равно 0.1, т.е. на порядок больше отклонения МСП, равного 0.01. Таким образом, оказалось, что МСП существенно лучше приближает аппроксимацию к контрольной точке $y\left( {{{\alpha }_{{11}}}} \right)$ за то же число расчетов.

Этот вывод подтверждается при сравнении базы аппроксимации ${{T}_{{{\text{LPM}}}}}$ с базой аппроксимации ${{T}_{{{\text{NSGA}}}}}$методом функций включения [26]. Пусть (A)ε – ε-окрестность множества A в максимальной метрике. Зависимость ${{\nu }_{{{{T}_{{{\text{N}}SGA}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$ от ε, определенная при $\varepsilon \geqslant 0$ – это доля точек ${{T}_{{{\text{NSGA}}}}}$, попавших в ε-окрестность $T_{{{\text{LPM}}}}^{{\text{*}}}$, т.е.

${{\nu }_{{{{T}_{{{\text{NSGA}}}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*}) = \frac{1}{{{\text{card }}{{T}_{{{\text{NSGA}}}}}}}\sum\limits_{i = 1}^{{\text{card }}{{T}_{{{\text{NSGA}}}}}} {\delta (\varepsilon ,t{}^{i})} ,$
где
$\delta (\varepsilon ,{{t}^{i}}) = \left\{ {\begin{array}{*{20}{c}} {1,}&{\;{{t}^{i}} \in {{{(T_{{{\text{LPM}}}}^{*})}}_{\varepsilon }},} \\ {0,}&{\;{{t}^{i}} \notin {{{(T_{{{\text{LPM}}}}^{*})}}_{\varepsilon }},\quad {{t}^{i}} \in {{T}_{{{\text{NSGA}}}}}.} \end{array}} \right.$
Зависимость ${{\nu }_{{{{T}_{{{\text{N}}SGA}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$ называют функцией включения базы ${{T}_{{{\text{NSGA}}}}}$ в ε-окрестность множества $T_{{{\text{OIM}}}}^{*}$. Таким образом, функция включения ${{\nu }_{{{{T}_{{{\text{N}}SGA}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$ характеризует отклонение ${{T}_{{{\text{NSGA}}}}}$ от $T_{{{\text{LPM}}}}^{*}$. Аналогичным образом определяется зависимость ${{\nu }_{{{{T}_{{{\text{LPM}}}}}}}}(\varepsilon ,T_{{{\text{NSGA}}}}^{*})$, которая имеет смысл доли точек ${{T}_{{{\text{LPM}}}}}$, попавших в ε-окрестность $T_{{{\text{NSGA}}}}^{*}$, и характеризует отклонение точек ${{T}_{{{\text{LPM}}}}}$ от $T_{{{\text{NSGA}}}}^{*}$. Фигура 8 содержит графики функций включения ${{\nu }_{{{{T}_{{{\text{LPM}}}}}}}}(\varepsilon ,T_{{{\text{NSGA}}}}^{*})$ и ${{\nu }_{{{{T}_{{{\text{N}}SGA}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$. Штрих-пунктирной линией обозначен график функции ${{\nu }_{{{{T}_{{{\text{LPM}}}}}}}}(\varepsilon ,T_{{{\text{NSGA}}}}^{*})$, сплошной линией – график функции ${{\nu }_{{{{T}_{{{\text{N}}SGA}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$.

На фиг. 8 видно, что

${{\nu }_{{{{T}_{{{\text{LPM}}}}}}}}(\varepsilon ,T_{{{\text{NSGA}}}}^{*}) < {{\nu }_{{{{T}_{{{\text{N}}SGA}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$
при всех значениях $\varepsilon \geqslant 0$. Это означает, что совокупность точек ${{T}_{{{\text{NSGA}}}}}$ лежит ближе к множеству $T_{{{\text{LPM}}}}^{*}$, чем совокупность точек ${{T}_{{{\text{LPM}}}}}$ к множеству $T_{{{\text{NSGA}}}}^{*}$. В частности, множество $T_{{{\text{LPM}}}}^{*}$ содержит 20% точек ${{T}_{{{\text{NSGA}}}}}$, а его ε-окрестность при ε = 0.01 содержит более 85% точек ${{T}_{{{\text{NSGA}}}}}$. При этом радиус полного покрытия ${{T}_{{{\text{NSGA}}}}}$ множеством $T_{{{\text{LPM}}}}^{*}$ составляет менее 0.02. Таким образом, точки ${{T}_{{{\text{NSGA}}}}}$ сконцентрированы в окрестности множества $T_{{{\text{LPM}}}}^{*}$.

Фиг. 8.

Наоборот, $T_{{{\text{NSGA}}}}^{*}$ не содержит точек ${{T}_{{{\text{LPM}}}}}$, а при ε = 0.02 в ${{(T_{{{\text{NSGA}}}}^{*})}_{\varepsilon }}$ содержится не более 40% точек ${{T}_{{{\text{LPM}}}}}$, т.е. большинство точек ${{T}_{{{\text{LPM}}}}}$ не близки к $T_{{{\text{NSGA}}}}^{*}$. Учитывая также то, что радиус полного покрытия ${{T}_{{{\text{LPM}}}}}$ множеством $T_{{{\text{NSGA}}}}^{*}$ составляет 0.105, можно утверждать, что аппроксимация ОЭП, задаваемая множеством точек ${{T}_{{{\text{LPM}}}}}$, существенно лучше аппроксимации, задаваемой множеством ${{T}_{{{\text{NSGA}}}}}$.

5.3. Экспериментальное сравнение МСП с методом инжекции оптимумов

В данном разделе метод стартовой площадки сравнивался с вариантом метода инжекции оптимумов, в рамках которого использовалась периодическая инжекция оптимумов, которые включаются в популяцию генетического метода каждые 100 итераций. Сравнение производилось с использованием результатов того же эксперимента с МСП, что и в предыдущем разделе, т.е. для построения аппроксимации ОЭП потребовалось около 18 миллионов расчетов критериальной функции. Поскольку метод ИО, также как и МСП, требует 10 миллионов расчетов критериальной функции для решения задач глобальной оптимизации отдельных критериев, оставшиеся 8 миллионов расчетов критериальной функции позволили провести 800 итераций метода ИО. Параметры метода ИО на шаге 2 брались теми же, что и в экспериментах с методом ИО, описанными в [14], т.е. $N_{{{\text{IOM}}}}^{{}} = 10\,000$. Как и во всех предыдущих экспериментах, на каждой итерации рассчитывалось отклонение δ критериальной точки $y\left( {{{\alpha }_{{11}}}} \right)$ от аппроксимации ОЭП. Базу, полученную после 800 итераций шага 2 метода ИО, т.е. в конце процесса аппроксимации, обозначим через ${{T}_{{{\text{IOM}}}}}$.

Представление о графике отклонения точки $y\left( {{{\alpha }_{{11}}}} \right)$ от аппроксимации ОЭП в зависимости от номера итерации метода ИО можно получить по статье [14]. Отметим лишь, что отклонение точки $y\left( {{{\alpha }_{{11}}}} \right)$ от аппроксимации $T_{{{\text{IOM}}}}^{{}}$ оказалось равным 0.058, что примерно в 6 раз хуже результата МСП. Также было осуществлено сравнение базы ${{T}_{{{\text{IOM}}}}}$ с базой ${{T}_{{{\text{LPM}}}}}$, полученной с помощью МСП, с использованием метода функций включения [26].

Фигура 9 содержит графики функций включения ${{\nu }_{{{{T}_{{{\text{LPM}}}}}}}}(\varepsilon ,T_{{{\text{IOM}}}}^{*})$ и ${{\nu }_{{{{T}_{{{\text{IOM}}}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$. Штрихпунктирной линией нарисован график функции ${{\nu }_{{{{T}_{{{\text{LPM}}}}}}}}(\varepsilon ,T_{{{\text{IOM}}}}^{*})$, сплошной линией – график функции ${{\nu }_{{{{T}_{{{\text{IOM}}}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$. На фиг. 10 в увеличенном виде изображена часть графиков фиг. 9 в окрестности точки их пересечения. Напомним, что функция ${{\nu }_{{{{T}_{{{\text{LPM}}}}}}}}(\varepsilon ,T_{{{\text{IOM}}}}^{*})$ имеет смысл доли точек ${{T}_{{{\text{LPM}}}}}$, попавших в ε-окрестность $T_{{{\text{IOM}}}}^{*}$, т.е. характеризует отклонение точек ${{T}_{{{\text{LPM}}}}}$ от ${{(T_{{{\text{IOM}}}}^{*})}_{\varepsilon }}$. И наоборот, функция ${{\nu }_{{{{T}_{{{\text{IOM}}}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$ имеет смысл доли точек ${{T}_{{{\text{IOM}}}}}$, попавших в ε-окрестность $T_{{{\text{LPM}}}}^{*}$, т.е. характеризует отклонение ${{T}_{{{\text{IOM}}}}}$ от ${{(T_{{{\text{LPM}}}}^{*})}_{\varepsilon }}$.

Фиг. 9.
Фиг. 10.

На фиг. 9 и 10 видно, что при ε < 0.014 график функции ${{\nu }_{{{{T}_{{{\text{LPM}}}}}}}}(\varepsilon ,T_{{{\text{IOM}}}}^{*})$ лежит выше графика функции ${{\nu }_{{{{T}_{{{\text{IOM}}}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$, при ε = 0.014 графики функций пересекаются, а при ε > 0.014 график ${{\nu }_{{{{T}_{{{\text{IOM}}}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$ лежит выше. На фиг. 5 хорошо видно, что значение функций включения в точке пересечения равно 99.2%. Это означает, что более 99% точек ${{T}_{{{\text{LPM}}}}}$ находятся в ε-окрестности множества $T_{{{\text{IOM}}}}^{*}$ с ε = 0.014 и такой же процент точек ${{T}_{{{\text{IOM}}}}}$ находится в ε-окрестности множества $T_{{{\text{LPM}}}}^{*}$ с ε = 0.014. При этом ε-окрестность $T_{{{\text{IOM}}}}^{*}$ с ε < 0.014 содержит большую долю точек множества ${{T}_{{{\text{LPM}}}}}$, чем ε-окрестность $T_{{{\text{LPM}}}}^{*}$ содержит точек ${{T}_{{{\text{IOM}}}}}$.

Описанный факт легко понять, поскольку около 99% точек ${{T}_{{{\text{LPM}}}}}$ являются точками стартовой площадки и были порождены на первом шаге МСП, совпадающем с первым шагом метода ИО. Остальные точки ${{T}_{{{\text{LPM}}}}}$ (не более 100) порождены на оптимизационном шаге МСП. Ясно, что точки ${{T}_{{{\text{LPM}}}}}$ первого типа в совокупности хуже, чем соответствующие точки ${{T}_{{{\text{IOM}}}}}$, которые были построены путем улучшения точек ${{T}_{{{\text{LPM}}}}}$ первого типа на дополнительных 255 итерациях генетического алгоритма. Наоборот, точки, которые получены в результате процесса оптимизации (менее 1%), имеют значительное отклонение от $T_{{{\text{IOM}}}}^{*}$. Это доказывается более медленным ростом функции ${{\nu }_{{{{T}_{{{\text{LPM}}}}}}}}(\varepsilon ,T_{{{\text{IOM}}}}^{*})$ при ε > 0.014, которая достигает единицы только при ε = 0.058 (в отличие от функции ${{\nu }_{{{{T}_{{{\text{IOM}}}}}}}}(\varepsilon ,T_{{{\text{LPM}}}}^{*})$, которая достигает единицы уже при ε = 0.026).

Таким образом, аппроксимация ОЭП, полученная методом стартовой площадки, содержит значительное число критериальных точек, весьма удаленных от аппроксимации, полученной методом инжекции оптимумов. Это может сделать аппроксимацию ОЭП, полученную методом стартовой площадки, более предпочтительной для пользователя.

ЗАКЛЮЧЕНИЕ. ДОПОЛНЕННЫЙ МСП

Итак, метод стартовой площадки позволяет найти относительно небольшое число критериальных точек, качественно улучшающих аппроксимацию, полученную с помощью метода инжекции оптимумов. В то же время большинство полученных точек уступают точкам метода инжекции оптимумов. Этот факт заставляет задуматься о совершенствовании МСП с целью “подтягивания” остальных точек базы аппроксимации к точкам базы, полученным на шаге 2. Это может быть осуществлено на основе дополнения МСП еще одним шагом, основанным на идеях генетических алгоритмов. Такой вариант МСП, получивший название дополненного МСП (ДМСП) требует специального изучения. Первые эксперименты с ДМСП показали его эффективность. Подробный анализ будет осуществлен в отдельной публикации.

Авторы хотели бы выразить глубокую благодарность Г.К. Каменеву за критические замечания и полезные советы.

Список литературы

  1. Подиновский В.В., Ногин В.Д. Парето-оптимальные решения многокритериальных задач. М.: Физматлит, 2007. 256 c.

  2. Краснощеков П.С., Морозов В.В., Попов Н.М. Оптимизация в автоматизированном проектировании. М.: Макс Пресс, 2008.

  3. Евтушенко Ю.Г., Посыпкин М.А. Метод неравномерных покрытий для решения задач многокритериальной оптимизации с гарантированной точностью // Ж. вычисл. матем. и матем. физ. 2013. Т. 53. № 2. С. 209–224.

  4. Miettinen K.M. Nonlinear multiobjective optimization. Boston: Kluwer Academic Publishers, 1999. 298 p.

  5. Deb K. Multi-objective optimization using evolutionary algorithms. Chichester, UK: Wiley, 2001. 515 p.

  6. Lotov A.V., Miettinen K. Visualizing the Pareto Frontier // J. Branke, K. Deb, K. Miettinen, R. Slowinski (eds.) Multiobjective Optimization. Interactive and Evolutionary Approaches, Lecture Notes in Computer Science. V. 5252. Springer, Berlin-Heidelberg, 2008. P. 213–244.

  7. Sawaragi Y., Nakayama H., Tanino T. Theory of multiobjective optimization. Orlando: Acad. Press, 1985.

  8. Лотов А.В., Бушенков В.А., Каменев Г.К., Черных О.Л. Компьютер и поиск компромисса. Метод достижимых целей. М.: Наука, 1997. 239 с.

  9. Lotov A.V., Bushenkov V.A., Kamenev G.K. Interactive Decision Maps. Approximation and Visualization of Pareto Frontier. Bosto: Kluwer Academic Publishers, 2004. 310 p.

  10. Лотов А.В., Каменев Г.К., Березкин В.Е. Аппроксимация и визуализация паретовой границы для невыпуклых многокритериальных задач // Докл. АН. 2002. Т. 386. № 6. С. 738–741.

  11. Березкин В.Е., Каменев Г.К., Лотов А.В. Гибридные адаптивные методы аппроксимации невыпуклой многомерной паретовой границы // Ж. вычисл. матем. и матем. физ. 2006. Т. 46. № 11. С. 2009–2023.

  12. Horst R., Pardalos P.M. Handbook on global optimization. Dordrecht, NL: Kluwer, 1995.

  13. Coello C.A., Lamont G.B., van Veldhuizen D.A. Evolutionary Algorithms for Solving Multi-Objective Problems. 2nd ed. Springer, 2007.

  14. Лотов А.В., Рябиков А.И. Простая эффективная гибридизация классической глобальной оптимизации и генетических алгоритмов многокритериальной оптимизации // Ж. вычисл. матем. и матем. физ. (в печати)

  15. Лотов А.В., Рябиков А.И. Многокритериальный синтез оптимального управления и его применение при построении правил управления каскадом гидроэлектростанций // Труды Института матем. и механ. УрО РАН, 2014. Т. 20. № 4. С. 187–203.

  16. Евтушенко Ю.Г., Посыпкин М.А. Эффективная оболочка множества и ее аппроксимация // Докл. АН. 2014. Т. 459. № 5. С. 550–553.

  17. Каменев Г.К., Лотов А.В. Аппроксимация эффективной оболочки невыпуклого многомерного множества, заданного нелинейным отображением // Докл. АН. 2018. Т. 478. № 4. С. 395–399.

  18. Лотов А.В., Рябиков А.И., Бубер А.Л. Многокритериальная процедура выбора решения с наследуемым множеством точек старта локальной оптимизации свертки критериев // Искусственный интеллект и принятие решений, 2018. № 3. С. 58–68.

  19. Deb K., Pratap A., Agarwal S., Meyarivan T. A Fast and Elitist Multiobjective Genetic Algorithm: NSGA-II // IEEE Transact. on Evolutinary Comput., April 2002. V. 6. № 2. P. 182–197.

  20. Du K.-L., Swamy M.N.S. Search and Optimization by Metaheuristics. Berlin: Springer, 2016.

  21. Каменев Г.К. Аппроксимация вполне ограниченных множеств методом глубоких ям // Ж. вычисл. матем. и матем. физ. 2001. Т. 41. № 11. С. 1751–1760.

  22. Березкин В.Е., Каменев Г.К. Исследование сходимости двухфазных методов аппроксимации оболочки Эджворта–Парето в нелинейных задачах многокритериальной оптимизации // Ж. вычисл. матем. и матем. физ. 2012. Т. 52. № 6. С. 990–998.

  23. Каменев Г.К. Исследование скорости сходимости и эффективности двухфазных методов аппроксимации оболочки Эджворта–Парето // Ж. вычисл. матем. и матем. физ. 2013. Т. 53. № 4. С. 507–519.

  24. Болгов М.В., Сарманов И.О., Сарманов О.В. Марковские процессы в гидрологии. М.: ИВП РАН, 2009. 211 с.

  25. Рябиков А.И. О методе эрзац-функций для минимизации конечнозначной функции на компактном множестве // Ж. вычисл. матем. и матем. физ. 2014. Т. 54. № 2. С. 195–207.

  26. Березкин В.Е., Лотов А.В. Сравнение двух аппроксимаций границы Парето // Ж. вычисл. матем. и матем. физ. 2014. Т. 54. № 9. С. 1455–1464.

Дополнительные материалы отсутствуют.