Известия РАН. Теория и системы управления, 2019, № 4, стр. 106-120

СМЕШАННЫЕ СТРАТЕГИИ В ВЕКТОРНОЙ ОПТИМИЗАЦИИ И СВЕРТКА ГЕРМЕЙЕРА

Н. М. Новикова a, И. И. Поспелова b*

a ВЦ ФИЦ ИУ РАН
Москва, Россия

b МГУ ф. ВМК
Москва, Россия

* E-mail: ipospelova05@yandex.ru

Поступила в редакцию 29.01.2019
После доработки 19.02.2019
Принята к публикации 25.03.2019

Полный текст (PDF)

Аннотация

На простейших двухкритериальных примерах задачи векторной оптимизации и игры с нулевой суммой исследована адекватность применения смешанных стратегий при использовании свертки Гермейера (обратной логической свертки) вместо линейной свертки для параметризации множества значений оптимума или игры и для оценки выигрышей участников. Показано, что линейная свертка приводит к иным результатам, чем дает среднее обратной логической свертки. Обсуждаются вопросы стохастической векторной оптимизации и различные варианты формализации понятия значения многокритериальных игр в смешанных стратегиях.

0. Введение. Рассмотрим задачу многокритериальной (МК), или же векторной, оптимизации: найти

(0.1)
$\mathop {{\text{Max}}}\limits_{x \in X} F(x),$
где F(x) = (f1(х), …, fm(х)), X – компакт в евклидовом пространстве, все частные критерии fi(·) > 0 и непрерывны. Значением максимума в МК-задаче (0.1), который в отличие от скалярного максимума записывается с заглавной буквы, будем считать множество Слейтера в критериальном пространстве [13]. Реализацией этого значения (решением МК-задачи) является множество

${{Х }_{S}}{\text{ }} = {\text{ }}\{ х * \in \left. Х \right|{\text{ }}\forall х \in Х \;\exists i:{{f}_{i}}(x) \leqslant {{f}_{i}}(x*)\} .$

Предположим сначала, что Х – конечное множество и что при выборе х $ \in $ Х ответственный за выбор (лицо, принимающее решения, далее – ЛПР) планирует применять смешанную стратегию, т.е. задавать для себя вероятность р(х), с которой он будет придерживаться решения х $ \in $ Х. Какую оценку вектора выигрышей ему правильно использовать? Стандартным ответом [46] на такой вопрос служит замена векторного критерия F(x) на его математическое ожидание ЕF, понимаемое как вектор (Еf1, …, Еfm) математических ожиданий компонент (по мере р(·)). Тем не менее, в общем случае с позиций исследования операций [1] данный ответ не очевиден.

Например, если Х – выпуклый компакт, то по теореме о среднем Еfi = fi(х(i)), где средние точки х(i) $ \in $ Х, вообще говоря, различны между собой при разных индексах i из {1, …, m}. Однако ЛПР, пусть и случайно, но выбирает только один вариант х $ \in $ Х на все критерии, так что вектор, составленный из  fi(х(i)), может оказаться недостижимым в критериальном пространстве. В свою очередь для конечного множества $Х = \{ x{{{\text{ }}}^{j}}\} _{{j = 0}}^{T}$ обозначим кусочно-линейное продолжение fi на выпуклую оболочку conv(X) этого множества через ${{\tilde {f}}_{i}}$, i = 1, …, m. Тогда если все ${{\tilde {f}}_{i}}$ вдруг будут линейными, то получим для р(x j) – вероятности выбора x j, что

${\text{E}}{{f}_{i}} = \sum\limits_j {{{f}_{i}}({{x}^{j}})p({{x}^{j}}) = {{{\tilde {f}}}_{i}}\left( {\sum\limits_j {{{x}^{j}}p({{x}^{j}})} } \right)} {\kern 1pt} {\kern 1pt} ,$
и средняя точка не зависит от i. Лишь в такой ситуации стандартная замена корректна.

Вернемся теперь к исходной задаче (0.1) МК-оптимизации. Для параметризации и построения ХS используется метод сверток [13], согласно которому МК-задача (0.1) на Мах F(x) заменяется параметрическим семейством скалярных задач на mах C({fi}, λ)(x), где С – функция свертки частных критериев $\left\{ {{{f}_{i}}} \right\}_{{i = 1}}^{m}$ МК-задачи в единый скалярный критерий (монотонна по f), λ = = (λ1, …, λm ) – вектор параметров свертки. Например, для линейной свертки (ЛС)

$С (\{ {{f}_{i}}\} ,\lambda )(х ) = L(\{ {{f}_{i}}\} ,\lambda )(х )\mathop = \limits^{{\text{def}}} \sum\limits_{i = 1}^m {{{\lambda }_{i}}{{f}_{i}}(x)} ,\quad \lambda \in \Lambda \mathop = \limits^{{\text{def}}} \left\{ {\lambda \geqslant 0|\sum\limits_{i = 1}^m {{{\lambda }_{i}}} = 1} \right\}.$

В случае вогнутости  fi на X справедливо представление

${{X}_{S}} = \bigcup\limits_{\lambda \in \Lambda } {\mathop {\operatorname{Argmax} }\limits_{x \in X} } \sum\limits_{i = 1}^m {{{\lambda }_{i}}{{f}_{i}}(x)} ,$
и значение (0.1) с помощью ЛС параметризуется множеством

$F({{X}_{S}}) = \{ w* \in {{{\mathbf{R}}}^{m}}|\exists \;x* \in {{X}_{S}}:\,\,w* = F(x*)\} .$

Ю.Б. Гермейер [1] ввел не требующую условия вогнутости логическую свертку, заменив операцию суммы на минимум, причем оказалось удобнее частные критерии при скаляризации не умножать, а делить [7] на весовые коэффициенты – параметры свертки. Такую свертку обозначим

$G(\{ {{f}_{i}}\} ,{\mathbf{\mu }})(х )\mathop = \limits^{{\text{def}}} \mathop {\min }\limits_{i:\;{{\mu }_{i}} > 0} {{f}_{i}}(x){\text{/}}{{\mu }_{i}},\quad {\mathbf{\mu }} \in \Lambda ,\quad {\mathbf{\mu }} = \left( {{{\operatorname{Вµ} }_{1}}, \ldots ,{{\operatorname{Вµ} }_{m}}} \right),$
и будем называть гермейеровской, или обратной логической, сверткой (ОЛС). В общих предположениях (с учетом неотрицательности  fi ), согласно [1, 7], выполнено

${{X}_{S}} = \bigcup\limits_{{\mathbf{\mu }} \in \Lambda } {\mathop {\operatorname{Argmax} }\limits_{x \in X} } \,\,G(\{ {{f}_{i}}\} ,{\mathbf{\mu }})(x).$

Значение (0.1) при использовании ОЛС задается (возможно, с прибавлением некоторой части точек Слейтера из оболочки Эджворта–Парето [7]) множеством

(0.2)
$\bigcup\limits_{{\mathbf{\mu }} \in \Lambda } {{\mathbf{\mu }}\mathop {max}\limits_{x \in X} } \,\,G(\{ {{f}_{i}}\} ,{\mathbf{\mu }})(x)$.

Таким образом, ЛПР может по-разному представлять исходную МК-задачу (0.1) в зависимости от способа ее скаляризации – на получающееся решение вид применяемой свертки не влияет. Ситуация будет иной при использовании им смешанных стратегий. Если до перехода к свертке (т.е. до скаляризации) вектора критериев заменить частные критерии на их математические ожидания, то все так же не важно, какую свертку ему потом выбрать. Но если ЛПР считает правильным осреднять уже скаляризованную целевую функцию МК-задачи (при каждом значении параметра) после выбора свертки для ее представления, то разные свертки могут привести к различным результатам. Для пояснения заметим, что ${\text{E}}L(\{ {{f}_{i}}\} ,{\mathbf{\lambda }}) = L(\{ {\text{E}}{{f}_{i}}\} ,{\mathbf{\lambda }})$, но ${\text{E}}G(\{ {{f}_{i}}\} ,{\mathbf{\mu }}) \leqslant G(\{ {\text{E}}{{f}_{i}}\} ,{\mathbf{\mu }})$ и максимум по x правой части последнего неравенства может превысить максимум левой. В итоге мало шансов, что совпадут между собой и объединения по µ таких максимумов (умноженных на µ), и объединения максимизаторов. По аналогичным соображениям имеют право различаться множества, представляющие значение или реализации МК-максимума в смешанных стратегиях, в зависимости от используемых сверток. Цель данной статьи состоит в том, чтобы оценить отмеченные различия на простейшем примере, получаемом при дискретизации множества стратегий Студента (С) в модельной МК-игре ЛПР С и Преподавателя (П), рассмотренной в [8, 9].

В [9] предложено исследовать возможность обобщения на ОЛС результата из [4] об аксиоматическом описании решения в смешанных стратегиях для МК-игр с нулевой суммой, согласно [5], на базе применения ЛС. Такая возможность не подтвердилась для случая бесконечного Х = = [0, 1], изучаемого в [9]. Рассмотрение вопроса замены ЛС на ОЛС для конечных игр на примере Х = {0, 1} начато в [10], продолжим его в разд. 4. В целом, авторы полагают, что использование смешанных стратегий в МК-задачах не препятствует применению ОЛС со стороны ЛПР, и даже в ряде постановок ОЛС позволяет получить более адекватные оценки, чем ЛС.

Кроме того, если говорить о задаче МК-оптимизации с неопределенностью и для ее решения применять численные методы стохастического программирования, то вряд ли удастся обойтись без той или иной функции свертки. Однако от вида свертки будет зависеть ответ задачи. Указанные вопросы обсудим в разд. 2. Динамические МК-задачи тоже допускают различное толкование в зависимости от того, как постановщик задает скаляризацию и как входит в свертку переменная времени. Вкратце затронем эту тему в разд. 3 на примере модельной МК-задачи ЛПР С на бесконечном Х = [0, 1].

1. Модельная МК-задача ЛПР С. В модели [8] С выбирает долю х рабочего времени, которую он тратит на подготовку диплома. Допустим, что эффективность подготовки пропорциональна $\sqrt x $. Оставшееся рабочее время (1 – х) ЛПР С тратит на подработку, и значения его второго критерия пропорциональны $\sqrt {1 - x} $. Считается, что производительность любых занятий С падает с увеличением отводимого на них времени, обусловливая вогнутость по х частных критериев. Начнем с крайнего случая и в отличие от [8, 9] допустим, что ЛПР С не может распределять свое время между двумя видами деятельности, т.е. выбирает одну из двух стратегий $x \in X$ = {0, 1}, максимизируя векторный критерий F(x) = (f1(х), f2(х)) = ($\sqrt x $,$\sqrt {1 - x} $). Тогда обе его стратегии образуют ХS и значение F(ХS) МК-максимума состоит из двух точек (0, 1) и (1, 0) на координатных осях в пространстве критериев. Две эти точки получаем и при использовании ЛС со стороны С. Формула (0.2) приводит, кроме указанных, еще к оценке (0, 0), возникающей при двух ненулевых компонентах вектора параметров μ.

Предположим теперь, что С решил применять смешанные стратегии, и обозначим через p вероятность выбора им х = 1. Если С ориентируется на ЛС, то максимизация по p параметрического семейства ${\text{E}}L(\{ {{f}_{i}}\} ,{\mathbf{\lambda }})$ даст в качестве решения (множества PS) весь отрезок [0, 1], т.е. любые p эффективны по Слейтеру (при каких-то λ). Причем все p из интервала (0, 1) соответствуют единственной величине λ = (1/2, 1/2). Значением среднего МК-максимума при расчете С на ЛС будет отрезок, соединяющий в критериальном пространстве точки (0, 1) и (1, 0). Если же С использует ОЛС, то вместо (0.2) получим

(1.1)
$\bigcup\limits_{{\mathbf{\mu }} \in \Lambda } {{\mathbf{\mu }}\mathop {\max }\limits_{p \in [0,1]} \,\,} {\text{E}}G(\{ {{f}_{i}}\} ,{\mathbf{\mu }})$
– МК-среднее значение МК-максимума при гермейеровской скаляризации. Множество (1.1) совпадает с (0.2) для данного примера и не содержит указанного выше отрезка, так как $\forall {\mathbf{\mu }} \ne (0,1),(1,0):\,\,\,G(\{ {{f}_{i}}\} ,{\mathbf{\mu }}) = 0\,\,\forall x$. Поэтому переход к смешанным стратегиям ЛПР С не меняет его результата с ОЛС. Таким образом, множества МК-средних значений (0.1), построенные с помощью разных сверток, различаются (хотя множество решений – оптимальных смешанных стратегий PS не зависит от вида свертки).

По содержанию если представить себе повторяющуюся МК-задачу для С, где С перед выбором х = 0 или 1 бросает монетку, то можно сказать, что половину времени он отдает на первый критерий, а половину – на второй. Тогда правильнее ввести в множество Х дополнительную альтернативу х = 1/2 и говорить о точке (1/$\sqrt 2 $, 1/$\sqrt 2 $) в критериальном пространстве. Однако математическое ожидание даст более оптимистическую оценку (1/2, 1/2), которую конечно можно проинтерпретировать как половинный максимум по каждому критерию, но трудно объяснить для исходного вида критерия F. Использование осредненной ОЛС иллюстрирует пословицу “за двумя зайцами погонишься – ни одного не поймаешь” и дает пессимистическую оценку (0, 0) результата С, когда он делит свое время между обоими критериями сразу.

2. МК-задачи стохастической оптимизации. В примере разд. 1 все критерии ЛПР С были упрощенными и их математическое ожидание вычислялось явно. Общая скалярная задача стохастической оптимизации для непрерывной на выпуклом компакте Х функции  f, зависящей еще и от случайной величины (с.в.) ξ, ставится как задача поиска

$\mathop {{\text{max}}}\limits_{x \in X} \,{{{\text{E}}}_{\xi }}f(x,\xi )$,
где функция распределения с.в. ξ может быть не известной ЛПР в явном виде (задаваться эмпирически) при выборе им х $ \in $ Х, либо вычисление ее математического ожидания может являться отдельной непростой задачей [11, 12]. Вместе с тем если комбинировать итеративные методы локальной оптимизации с методом Монте-Карло для математического ожидания, то получаем алгоритмы, сходящиеся к локально оптимальному х с вероятностью 1 [11, 13].

В итеративных алгоритмах поиска МК-оптимума [7, 14] шаги метода локальной оптимизации функции свертки совмещают с перебором по сетке параметров свертки, точнее, по специальной ε-цепи из близких значений на сетке параметров. В отсутствие случайных факторов использование ЛС и ОЛС позволяет строить последовательность, предельные точки которой для выпуклых задач составляют множество ХS. При наличии зависимости критериев от с.в., применяя шаги методов стохастической оптимизации к функции свертки, получим сходимость к математическому ожиданию функции свертки (при соответствующем значении параметра). Для ОЛС ее математическое ожидание и свертка математических ожиданий оказываются различными, так что и максимумы их различны. Отсюда ясно, что значение (1.1), объединяющее максимумы математических ожиданий ОЛС для разных параметров свертки, в общем, не совпадает с объединением максимумов математических ожиданий ЛС (равных ЛС от математических ожиданий) частных критериев, поскольку для выпуклых задач (т.е. допускающих применение ЛС) неважно, с помощью какой из сверток задать параметризацию максимума вектора математических ожиданий частных критериев.

Формально, обозначая через АЛС и АОЛС множества в критериальном пространстве, представляющие МК-максимум МК-среднего вектора частных критериев, получаемый с помощью параметрической максимизации математического ожидания функции свертки (для ЛС и ОЛС соответственно), можем записать, что

$\begin{gathered} \mathop {\operatorname{Max} }\limits_{x \in X} ({{{\text{E}}}_{\xi }}{{f}_{1}}(x,\xi ),\;...,\;{{{\text{E}}}_{\xi }}{{f}_{m}}(x,\xi )) = \bigcup\limits_{{\mathbf{\lambda }} \in \Lambda } {\{ ({{{\text{E}}}_{\xi }}{{f}_{1}}(x({\mathbf{\lambda }}),\xi ),\;...,\;{{{\text{E}}}_{\xi }}{{f}_{m}}(x({\mathbf{\lambda }}),\xi ))|} \\ x({\mathbf{\lambda }}) \in \mathop {{\text{Argmax}}\,}\limits_{x \in X} L(\{ {{{\text{E}}}_{\xi }}{{f}_{i}}\} ,{\mathbf{\lambda }})(x) = \mathop {{\text{Argmax}}\,}\limits_{x \in X} {{{\text{E}}}_{\xi }}L(\{ {{f}_{i}}(x,\xi )\} ,{\mathbf{\lambda }})(x)\} = {{A}_{{{\text{Л С }}}}} \\ \end{gathered} $
и

$\begin{gathered} \mathop {\operatorname{Max} }\limits_{x \in X} ({{{\text{E}}}_{\xi }}{{f}_{1}}(x,\xi ),\;...,\;{{{\text{E}}}_{\xi }}{{f}_{m}}(x,\xi )) = \bigcup\limits_{{\mathbf{\mu }} \in \Lambda } {{\mathbf{\mu }}\mathop {\max }\limits_{x \in X} G(\{ } {{{\text{E}}}_{\xi }}{{f}_{i}}\} ,{\mathbf{\mu }})(x) \ne \\ \ne \bigcup\limits_{{\mathbf{\mu }} \in \Lambda } {{\mathbf{\mu }}\mathop {\max }\limits_{x \in X} {{{\text{E}}}_{\xi }}G(\{ } {{f}_{i}}(x,\xi )\} ,{\mathbf{\mu }})(x) = {{A}_{{{\text{О Л С }}}}}. \\ \end{gathered} $

Таким образом, применение методов стохастического программирования в МК-задачах стохастической оптимизации дает решения, зависящие от выбранной в методе функции свертки. Подчеркнем, что нет однозначного ответа на вопрос, какое из этих решений является более правильным, ни с теоретической, ни с содержательной точек зрения.

Для иллюстрации различий модифицируем МК-задачу ЛПР С из разд. 1, следуя [9]. Пусть векторный критерий у ЛПР С зависит от с.в. ξ, принимающей значения 1 и 2 с вероятностью 1/2, F(x, ξ) = (f1(х, ξ), f2(х, ξ)) = (ξ$\sqrt x $/2, $\sqrt {1 - x} $/ξ). И пусть также С может как угодно делить ресурс между своими занятиями, т.е. выбирать отводимую на учебу долю х рабочего времени из всего отрезка [0, 1] (использовать смешанные стратегии ему уже не нужно). Тогда слева на рис. 1 видно отличие АОЛС от АЛС в данном примере: линия для ЛС сплошная, а для ОЛС помечена точками. На левом графике штриховой линией еще показан МК-максимин, определяемый [1, 2] как

$\mathop {{\text{Max}}}\limits_{x \in X} \mathop {{\text{Min}}}\limits_\xi F(x,\xi )\mathop = \limits^{{\text{def}}} \operatorname{Max} \bigcup\limits_{x \in X} {\bigcap\limits_\xi {{\text{EPH}}(F(x,\xi ))} } ,$
где EPH(W) $\mathop = \limits^{{\text{def}}} $ {w* $ \in $ Rm|w* < w, w $ \in $ W} – оболочка Эджворта–Парето [3] для W $ \subseteq $ Rm. Нетрудно доказать (см. утверждение 1 в [8]), что для любых выпуклых задач АОЛС $ \subseteq $ EPH(АЛС). При этом МК-максимин содержится в EPH(АОЛС), так что его можно считать нижней оценкой для АОЛС и АЛС при неизвестной функции распределения с.в. ξ (в полном соответствии со скалярными задачами [1]).

Рис. 1.

Соотношения между АОЛС и АЛС (слева) и ВОЛС и ВЛС (справа) [8]

Для исследуемой постановки рассмотрим также стохастическое обобщение МК-минимакса, когда ЛПР выбирает х(ξ), уже зная конкретную реализацию с.в. ξ. Задача состоит в том, чтобы построить МК-оценку вектора его выигрышей, т.е. (формально) найти:

${{{\text{E}}}_{\xi }}\mathop {{\text{Max}}}\limits_{x \in X} \left( {{{f}_{1}}\left( {х ,\xi } \right),{\text{ }} \ldots ,{{f}_{m}}\left( {х ,\xi } \right)} \right)\mathop = \limits^{{\text{def}}} {{{\text{E}}}_{\xi }}\bigcup\limits_{x(\xi ) \in {{X}_{S}}(\xi )} {\left( {{{f}_{1}}\left( {х \left( \xi \right),\xi } \right),{\text{ }} \ldots ,{{f}_{m}}\left( {х \left( \xi \right),\xi } \right)} \right)} .$

Таким образом, надо при каждом значении ξ определить МК-максимум и взять его математическое ожидание по ξ (при известной функции распределения). Для поиска МК-максимума можно применить метод сверток. Если распределение с.в. ξ задано сложно вычисляемой функцией или явно не задано, но доступны ее значения, то по методу Монте-Карло можно использовать случайные реализации с.в. ξ и осреднять соответствующие слейтеровские множества F(ХS(ξ), ξ). Однако операция осреднения (и суммирования) множеств не является стандартной. Поэтому в [8] предложено осреднять/суммировать параметрические максимумы свертки (после скаляризации) и брать объединение по ее параметрам. Для модельного примера стохастической МК-задачи ЛПР С получим (в зависимости от используемой свертки) множества:

${{B}_{{{\text{Л С }}}}}\mathop = \limits^{{\text{def}}} \bigcup\limits_{{\mathbf{\lambda }} \in \Lambda } {\left\{ {F\left( {х (1,{\mathbf{\lambda }}),1} \right) + F\left( {х \left( {2,{\mathbf{\lambda }}} \right),2} \right)} \right\}{\text{/}}2} ,\quad {\text{г д е }}\quad x(\xi ,{\mathbf{\lambda }}) \in \mathop {\operatorname{Argmax} }\limits_{x \in X} L(\{ {{f}_{i}}\} ,{\mathbf{\lambda }})(x,\xi ),$
${\text{и }}$
${{B}_{{{\text{О Л С }}}}}\mathop = \limits^{{\text{def}}} \bigcup\limits_{{\mathbf{\mu }} \in \Lambda } {\mathbf{\mu }} \left\{ {\mathop {\max }\limits_{x \in X} \mathop {\min }\limits_{i:{{\mu }_{i}} \ne 0} \frac{{{{f}_{i}}(x,1)}}{{{{\mu }_{i}}}} + \mathop {\max }\limits_{x \in X} \mathop {\min }\limits_{i:{{\mu }_{i}} \ne 0} \frac{{{{f}_{i}}(x,2)}}{{{{\mu }_{i}}}}} \right\}{\text{/}}2,$
изображенные на рис. 1 справа. Тонкими линиями на правом графике рис. 1 показаны множества F(ХS(1), 1) и F(ХS(2), 2), среднее между которыми есть ВОЛС (линия с точками), а ВЛС выделено светлой жирной линией. Здесь результат применения ОЛС представляется более интуитивным, чем дающий явно завышенную оценку результат применения ЛС.

В [8] доказано, что в общем выпуклом случае АЛС $ \subseteq $ EPH(ВЛС), АОЛС $ \subseteq $ EPH(ВОЛС), ВОЛС $ \subseteq $ $ \subseteq $ EPH(ВЛС) и МК-минимакс содержится в EPH(ВОЛС), где (согласно определению из [1, 2, 14]) МК-минимакс задается формулой

$\mathop {{\text{Min}}}\limits_\xi \mathop {{\text{Max}}}\limits_{x \in X} \,F(x,\xi )\mathop = \limits^{{\text{def}}} \operatorname{Max} \bigcap\limits_\xi {\bigcup\limits_{x \in X} {{\text{EPH}}(F(x,\xi ))} } .$

Для рассматриваемой модельной задачи ЛПР С значение МК-минимакса образуют на рис. 1 справа участки кривых F(ХS(1), 1) и F(ХS(2), 2) ниже точки их пересечения. Как и в скалярных задачах, МК-максимин меньше МК-минимакса (включен в EPH), т.е. между гарантированными оценками стохастического МК-максимума выполнено то же соотношение, что и между соответствующими значениями для известной функции распределения с.в. ξ.

3. Динамические постановки МК-задачи. Операция суммирования или осреднения МК-оптимумов может возникать также в динамических МК-задачах. Допустим, что F(х(1), 1) – значение вектора критериев в первый период времени, а F(х(2), 2) – во второй и ЛПР выбирает вектор (х(1), х(2)) из [0, 1] × [0, 1] с целью МК-максимизации среднего за два периода МК-результата, т.е. достижения

${\text{М а х }}[F(х (1),1) + F(х (2),2)]{\text{/}}2.$

Однако возможно, что ЛПР не специфицирует свой векторный критерий как

$\bar {F}(х (1),х (2))\mathop = \limits^{{\text{def}}} \quad(\left[ {{{f}_{1}}(х (1),1) + {{f}_{1}}(х (2),2)} \right]{\text{/}}2, \ldots ,\left[ {{{f}_{m}}(х (1),1) + {{f}_{m}}(х (2),2)} \right]{\text{/}}2),$
а оставит его в скаляризованной форме двух параметрических семейств:

Причем, в силу несвязанности между собой ограничений на х(1) и на x(2), максимум полусуммы значений функции свертки равен полусумме максимумов функции C(·) и определяется как ВОЛС или как ВЛС, т.е. зависит от вида свертки С(·) (см. на рис. 1 справа). Похоже, что при любом усложнении постановки МК-задачи выбор функции свертки уже начинает влиять на получаемое решение (см. также ниже в разд. 4).

Для исследуемого модельного примера можно представить себе, что в первый момент времени условия принятия решений благоприятствуют второму критерию ЛПР С, а во второй – его первому критерию. Но с позиций МК-оптимизации это не значит, что в первый момент С должен максимизировать второй критерий, а во второй момент – первый. При разных значениях λ у него будут разные оптимальные стратегии, зависящие, в том числе, от выбранной им свертки. В частности, для ЛС с λ = (1/2, 1/2) максимизирующие свертку хL(1, λ) = 0.2 и хL(2, λ) = 0.8, а для ОЛС с µ = (1/2, 1/2) – наоборот, т.е. хG(1, µ) = 0.8 и хG(2, µ) = 0.2. Тем самым при одинаковой важности для него обоих критериев ЛПР, использующий ЛС, больше ресурса отдает на улучшение критерия, для которого ситуация благоприятная, а использующий ОЛС – улучшает вперед тот частный критерий, что находится в данный момент в худших условиях. В итоге ЛС приводит к более оптимистичной оценке оптимума, чем ОЛС, в задаче динамической векторной оптимизации. И при этом стратегия ЛПР С, уравнивающая итоговые значения критериев, имеет максимальную оценку в случае ЛС и минимальную в случае ОЛС (если считать по расстоянию в критериальном пространстве от точки (0, 0) – “ничего по обоим критериям”). Действительно (см. на рис. 1 справа), точка пересечения ВЛС с биссектрисой первого ортанта лежит вне круга радиуса 0.75 с центром в начале координат, а для ВОЛС аналогичная точка совпадает с такой же на графике МК-минимакса (когда вместо полусуммы по двум моментам времени берется минимальное из значений в каждый момент).

Отметим, что если ограничить выбор ЛПР С стратегиями, не меняющимися по времени, т.е. равенством х(1) = х(2), допустим, взять х(·) = 1/2, то в исходной постановке не получим точки оптимума, поскольку графики для АЛС и ВЛС пересекаются лишь на осях координат и аналогично АОЛС и ВОЛС, а также МК-максимин и МК-минимакс (ср. левую и правую части рис. 1). Данным рисунком еще раз подтверждается тот факт, что для МК-задач не характерно наличие седловой точки как в обычном смысле равновесия (хотя по каждому частному критерию в изучаемом примере имеется седловая точка), так и в общем смысле отсутствия выигрыша от использования информации (в данном случае о периоде времени или о реализациях с.в. ξ).

В [15] показано, что совпадение МК-максимина и МК-минимакса соответствует ситуации, когда многокритериальность несущественна, т.е. удается достичь максимума по всем критериям сразу. Поэтому нельзя принять условие такого равенства в качестве определения решения МК-игры. Ниже обсудим обобщения понятия равновесия Нэша на МК-случай.

4. Игровая МК-задача. Игровая постановка МК-задачи из разд. 2 была подробно проанализирована в [9], где вместо с.в. ξ фигурирует стратегия у $ \in $ Y второго ЛПР – игрока П, моделирующего преподавателя. Предполагается, что ЛПР П стремится путем выбора у $ \in $ {1, 2} минимизировать векторный критерий F(х, у), который максимизирует первый ЛПР – игрок С, выбирая хХ = = [0, 1]. Вектор-функция F(x, y) = (f1(х, y), f2(х, y)) = (y$\sqrt x $/2, $\sqrt {1 - x} $/y). Допускается применение П смешанных стратегий.

Для решения МК-игр двух лиц с противоположными интересами $\left\langle {F(x,y),\,X,Y} \right\rangle $, где F(x, y) = = (f1 (x, y), …, fm (x, y)), известен подход [16], обобщающий на МК-постановки понятие равновесия по Нэшу (седловой точки – для двух игроков с противоположными интересами). Следуя [16], решением данной МК-игры, или МК-равновесием, можно считать множество R таких точек (х*, у*), что х*$ \in $ ХS (у*) и у*$ \in $ YS (х*), здесь индекс S указывает на множество оптимальных по Слейтеру реализаций МК-максимума вектор-функций F(х, у*) и –F(х*, у) соответственно. В случае конечных Х и Y Шепли [5] свел описание указанного множества R к семейству задач поиска решений скалярных игр с функциями выигрышей – ЛС частных критериев при произвольном наборе весовых коэффициентов, своих у каждого игрока. В рассматриваемом примере решение игры по Шепли оказалось неизбирательным: состояло [9] из всех пар (х, q), где q – вероятность выбора у = 2 игроком П. При замене ЛС на ОЛС получили более узкое множество.

Основное отличие в постановке МК-игры из [9] от условий [5] – отсутствие конечности множества Х стратегий С. При этом игроку С не требуются смешанные стратегии. Если аппроксимировать Х конечным множеством и допустить смешанные стратегии, то получим все исходные стратегии игрока С, но компоненты его вектор-функции выигрышей станут кусочно-линейными. Вопрос о существенности указанного отличия рассмотрим ниже. В общем случае конечного числа стратегий игрока С имеем Х = {0, 1/Т, 2/Т, …, (Т – 1)/Т, 1}, где Т – целое. Разрешим С применять смешанную стратегию p(·) > 0 с суммой компонент, равной 1, т.е. из симплекса P в (Т + 1)-мерном пространстве. Пусть, применяя p(·), игрок С рассчитывает, согласно [10], на средний выигрыш по обоим критериям:

${{\overline F }^{Т }}(p( \cdot ),y) = (\overline f _{1}^{T}(p( \cdot ),y),\overline f _{2}^{T}(p( \cdot ),y)) = \left( {y\sum\limits_{t = 0}^T {p(t)\sqrt {t{\text{/}}T} {\text{/}}2,} \sum\limits_{t = 0}^T {p(t)\sqrt {1 - t{\text{/}}T} {\text{/}}y} } \right)$
для у $ \in $ Y = {1, 2} (верхний индекс Т у функции соответствует параметру дискретизации). Предложенное осреднение в МК-задаче отличается от формулы (1.1), поскольку здесь речь идет не о неконтролируемом факторе (с.в. ξ), а об изменении критерия игроком С при изменении им своего множества стратегий (с Х на P).

Для наглядности остановимся на предельном случае Т = 1 из разд. 2 и так же, как и там, обозначим через p вероятность выбора х = 1. Тогда векторный критерий С равен

${{\overline F }^{1}}(p,y) = (\overline f _{1}^{1}(p,y),\overline f _{2}^{1}(p,y)) = (yp{\text{/}}2,(1 - p){\text{/}}y)$

и ${{\overline F }^{1}}(p,1) = \left( {p{\text{/}}2,1 - p} \right)$, а ${{\overline F }^{1}}(p,2) = \left( {p,(1 - p){\text{/}}2} \right)$. Подчеркнем, что если бы игрок С, используя смешанную стратегию, применял осреднение к свертке Гермейера, то его результат в данном примере не поднялся бы от 0 (см. в разд. 1). А так, в критериальном пространстве имеем для p $ \in $ [0, 1] два пересекающихся отрезка прямых из точки (0, 1/2) в (1, 0) и из точки (0, 1) в (1/2, 0), что является линейной аппроксимацией множеств F(ХS(1), 1) и F(ХS(2), 2) из разд. 2 (показанных на рис. 1 справа). В полученной задаче для ЛПР С при каждом у все достижимые точки оптимальны по Слейтеру, поэтому указанные отрезки определяют значения МК-максимума по p $ \in $ [0, 1] среднего по его смешанной стратегии вектора критериев игрока С при у = 1 и 2 соответственно.

Построим для рассматриваемого примера множества: R = RЛС – решение и ZЛС – значение МК-игры, согласно [5, 16], и их аналоги RОЛС и ZОЛС при использовании ОЛС вместо ЛС обоими игроками. Предположим, как в [9], что относительно смешанных стратегий противника игроки используют осреднение не каждого из своих критериев, а их свертки.

Обозначим через λ:= λ1 вес первого критерия игрока С в ЛС. При фиксированном выборе у игроком П скаляризация ЛС с параметром λ у игрока С задается функцией

${{L}^{1}}(\lambda ,p,y)\mathop = \limits^{{\text{def}}} \lambda yp{\text{/}}2 + \left( {1--\lambda } \right)\left( {1--p} \right){\text{/}}y.$

Ее среднее значение по у равно

$\bar {L}(\lambda ,p,q) = \left\{ {p(3\lambda + q--2) + \left( {2--q} \right)\left( {1--\lambda } \right)} \right\}{\text{/}}2,$
где q – вероятность у = 2 в смешанной стратегии игрока П. Максимум по p реализуется следующей стратегией игрока С:

${{p}^{0}} = \left\{ \begin{gathered} 0,\quad {\text{е с л и }}\quad q < 2 - 3\lambda , \hfill \\ 1,\quad {\text{е с л и }}\quad q > 2 - 3\lambda , \hfill \\ \forall ,\quad {\text{е с л и }}\quad q = 2 - 3\lambda . \hfill \\ \end{gathered} \right.$

Аналогично минимум средней ЛС $\bar {L}(\alpha ,p,\,\,q)$ с параметром α для игрока П реализуется стратегией

${{q}^{0}} = \left\{ \begin{gathered} 0,\quad {\text{е с л и }}\quad p > 1 - \alpha , \hfill \\ 1,\quad {\text{е с л и }}\quad p < 1 - \alpha , \hfill \\ \forall ,\quad {\text{е с л и }}\quad p = 1 - \alpha . \hfill \\ \end{gathered} \right.$

Ситуация (1 – α, 2 – 3λ) является равновесной для скалярной игры, в которой С выбрал ЛС с параметром λ при λ ∈ [1/3, 2/3] (поскольку q0 $ \in $ [0, 1]), а П выбрал ЛС с параметром α. Так что при выборе всех возможных пар весовых коэффициентов получим все возможные пары (p, q), т.е. весь набор смешанных стратегий в качестве решения МК-игры, согласно [5] (в ЛС). Та же картина наблюдалась и до дискретизации множества Х (см. [9, рис. 7 а]).

Вычислим теперь равновесия в ОЛС при условии, что по смешанным стратегиям противника игрок осредняет уже не каждую компоненту вектора критериев, а их ОЛС. (Иначе по определению [16] и свойствам ОЛС пришли бы к тому же множеству (p, q), что и для ЛС.) Отметим, что после осреднения по своей стратегии каждым из игроков их частные критерии перестают быть противоположными. Поэтому даже при равенстве коэффициентов свертки у игроков средние значения их ОЛС могут не привести к игре с нулевой суммой (в отличие от ЛС, где осреднение свертки равносильно осреднению компонент).

Для игрока С, применяющего смешанные стратегии и ОЛС с параметром μ := μ1, среднее значение ОЛС при выборе q игроком П равно

(4.1)
$\overline {{{M}_{{\text{C}}}}} (p,q,\mu ) = q\min \left\{ {\frac{p}{\mu },\frac{{1 - p}}{{2(1 - \mu )}}} \right\} + (1 - q)\min \left\{ {\frac{p}{{2\mu }},\frac{{1 - p}}{{1 - \mu }}} \right\}.$

Для игрока П, использующего у = 2 с вероятностью q и ОЛС с параметром ν, значение ОЛС и ее среднее дают формулы

${{M}_{{\text{П }}}}(x,q,\nu ) = \max \left\{ {\frac{{q\sqrt x + (1 - q)\sqrt x {\text{/}}2}}{\nu },\frac{{q\sqrt {1 - x} {\text{/}}2 + (1 - q)\sqrt {1 - x} }}{{1 - \nu }}} \right\}$
и
$\begin{gathered} \overline {{{M}_{{\text{П }}}}} (p,q,\nu ) = p\max \left\{ {\frac{{q + (1 - q){\text{/}}2}}{\nu },0} \right\} + (1 - p)\max \left\{ {0,\frac{{(1 - q) + q{\text{/}}2}}{{1 - \nu }}} \right\} = \\ = \frac{1}{2}\left( {\frac{{p(q + 1)}}{\nu } + \frac{{(1 - p)(2 - q)}}{{1 - \nu }}} \right) \\ \end{gathered} $
(в случае μ, ν равно 0 или 1 соответствующие слагаемые опускаем). При заданном значении p и ν минимум по q последнего выражения реализуется на

(4.2)
$q(p,\nu ) = \left\{ \begin{gathered} 0,\quad {\text{е с л и }}\quad p{\text{/}}\nu > (1 - p){\text{/}}(1 - \nu ),\quad {\text{и л и }}\quad p > \nu , \hfill \\ 1,\quad {\text{е с л и }}\quad p{\text{/}}\nu < (1 - p){\text{/}}(1 - \nu ),\quad {\text{и л и }}\quad p < \nu , \hfill \\ \forall ,\quad {\text{е с л и }}\quad p{\text{/}}\nu = (1 - p){\text{/}}(1 - \nu ),\quad {\text{и л и }}\quad p = \nu . \hfill \\ \end{gathered} \right.$

Оптимальная стратегия игрока С при q = 1 равна

${{p}^{1}}\mathop = \limits^{{\text{def}}} \mu {\text{/}}\left( {2--\mu } \right),\quad\quad {\text{и }}\quad \overline {{{M}_{{\text{C}}}}} ({{p}^{1}},1,\mu ) = 1{\text{/}}(2 + \mu ).$
Для q = 0 оптимум достигается на
${{p}^{2}}\mathop = \limits^{{\text{def}}} 2\mu {\text{/}}\left( {1 + \mu } \right),\quad\quad {\text{и }}\quad \overline {{{M}_{{\text{C}}}}} ({{p}^{2}},0,\mu ) = 1{\text{/}}(1 + \mu ),$
что меньше предыдущего при μ > 1/2. При этом всегда p1p2 (равенство будет только для μ = 0 или 1).

С учетом (4.2) получаем, что при μ > 1/2 и p1 < ν (т.е. 2ν/(1 + ν) > μ и потому ν > 1/3) пары (p1, 1) являются равновесными для игры С и П в ОЛС. Симметричные равновесия образуются парами (p2, 0), когда μ < 1/2 и p2 > ν (т.е. μ > ν/(2 – ν) и необходимо ν < 2/3). Для соответствующих μ и ν компонента p1 в своей паре пробегает все значения из отрезка [1/3, 1], а p2 – из [0, 2/3]. Сложнее случаи: при μ > 1/2, если 2ν/(1 + ν) < μ (т.е. p1 > ν), а при μ < 1/2, если ν/(2 – ν) > μ (т.е. p2 < ν). С такими μ и ν игроку С уже может оказаться выгодней вполне смешанная стратегия игрока П, которая способна быть равновесной лишь для последнего варианта в (4.2).

На базе соотношений между минимумами в (4.1) приведем явный вид для значений функции выигрыша игрока С:

$\overline {{{M}_{C}}} (p,q,\mu ) = \left\{ \begin{gathered} \frac{{p(q + 1)}}{{2\mu }},\quad 0 \leqslant p \leqslant \frac{\mu }{{2 - \mu }} = {{p}^{1}}, \hfill \\ \frac{{p(1 - q - \mu ) + \mu q}}{{2\mu (1 - \mu )}},\quad {{p}^{1}} < p < {{p}^{2}}, \hfill \\ \frac{{(1 - p)(2 - q)}}{{2(1 - \mu )}},\quad {{p}^{2}} = \frac{{2\mu }}{{1 + \mu }} \leqslant p \leqslant 1. \hfill \\ \end{gathered} \right.$

Эта функция непрерывна по p, найдем ее максимум:

$\overline {{{M}_{C}}} (p*,q,\mu ) = \left\{ \begin{gathered} \frac{{(q + 1)}}{{2(2 - \mu )}},\quad q + \mu > 1, \hfill \\ \frac{1}{2}\quad {\text{п р и }}\quad q + \mu = 1, \hfill \\ \frac{{(2 - q)}}{{2(1 + \mu )}},\quad q + \mu < 1 \hfill \\ \end{gathered} \right.$
и реализацию максимума

$p* = p(q,\mu ) = \left\{ \begin{gathered} \frac{\mu }{{(2 - \mu )}},\quad q + \mu > 1, \hfill \\ \forall ,\quad q + \mu = 1, \hfill \\ \frac{2}{{1 + \mu }},\quad q + \mu < 1. \hfill \\ \end{gathered} \right.$

В итоге, на основании (4.2) для фиксированной пары параметров $(\mu ,\nu )$ равновесными будут все следующие пары стратегий:

(4.3)
$(p(\mu ,\nu ),q(\mu ,\nu )) = \left\{ \begin{gathered} (p = \mu ,q = 1 - \mu )\quad {\text{п р и }}\,\,{\text{л ю б ы х }}\quad (\mu ,\nu ), \hfill \\ ({{p}^{2}},0)\quad {\text{п р и }}\quad \frac{{2\mu }}{{1 + \mu }} > \nu , \hfill \\ ({{p}^{1}},1)\quad {\text{п р и }}\quad \frac{\mu }{{2 - \mu }} < \nu . \hfill \\ \end{gathered} \right.$

Перебрав все значения параметров $(\mu ,\nu )$, получим в пространстве стратегий квадрат [0,1] × [0,1] из равновесий. Отсюда выводим, что множество равновесных смешанных стратегий RОЛС совпадает с RЛС и тоже оказывается неизбирательным. Заметим, что при μ = 1/2, ν = 1/2 вполне смешанная стратегия q = 1/2 игрока П не выгодна для С, так как выбором p ≠ ν игрок С обеспечит q = 0 или 1 и выигрыш 2/3, в отличие от значения 1/2 для (4.1), которое дает ему выбор p = 1/2. Однако точка (1/2, 1/2) входит в RОЛС, а значит, ни одному игроку по отдельности не выгодно от нее отклониться.

В результате показали, что при переборе всех пар весовых коэффициентов ОЛС у первого и второго ЛПР получаются всевозможные пары (p, q) в качестве решения МК-игры в ОЛС, в отличие от того, что было до дискретизации Х (см. [9, рис. 7 б]). Таким образом, для простейшего варианта конечной игры С и П свертки ЛС и ОЛС повели себя одинаково при определении решения игры. Рассмотренный пример демонстрирует существенное отличие конечных и бесконечных МК-игр.

На основе указанных равновесий найдем множества в критериальном пространстве, соответствующие ZЛС и ZОЛС для данного примера. Распространим на него определения из [1, 7, 9], которые для ЛС и ОЛС (см. F(ХS) и (0.2)) различаются:

На рис. 2 построены оба варианта значения МК-игры. Так что, несмотря на совпадение равновесий, получаем несовпадение оценок выигрыша в МК-игре при использовании ЛС и ОЛС и приходим к разным значениям игры – множествам на рис. 2 слева и справа (на рис. 2 слева приведена аппроксимация ZЛС – точки искомого множества заполняют фигуру целиком; на рис. 2 справа аппроксимация ZОЛС для наглядности показана более жирными точками – ромбиками, определившими толщину линии). При этом ни ZЛС не содержит ZОЛС, ни наоборот. Вместе с тем нетрудно заметить, что ZОЛС $ \subseteq $ EPH(ZЛС), как и для множеств А и В (стохастических вариантов МК-максимума) из разд. 2.

Рис. 2.

Аппроксимация ZЛС (слева) и ZОЛС (справа) для исследуемого примера [10]

Ситуация несовпадения значений при использовании разных сверток имеется и для случая МК-игры в чистых стратегиях да и просто для оценки МК-выигрыша игрока С при y = 1 (см. в разд. 1). Интересно сравнить рисунки для множеств, представляющих значение (ZЛС или ZОЛС) конечной игры на рис. 2 и значение (SЛС или SОЛС) игры с Х = [0, 1] (см. на рис. 3) по построению из [9]. Хотя рис. 2 и 3 расходятся, причем в части ОЛС сильней, но главное различие, похоже, определяется дискретизацией Х. Действительно, для Х = [0, 1] видна возможность приближения к рис. 2 путем спрямления образующих множества SЛС и SОЛС кривых с рис. 3 (рис. 5 и 6 из [9]), которое соответствует уже упоминавшимся в начале данного раздела отрезкам линейной аппроксимации множеств F(ХS(1), 1) и F(ХS(2), 2), показанных на правом графике рис. 1 тонкими линиями. Для T > 1 получается промежуточная картина, но далее на ней останавливаться не будем.

Рис. 3.

Аппроксимация SЛС (слева) и SОЛС (справа) для рассматриваемого примера [9]

Таким образом, можно заменить основанную на ЛС аксиому WEIGHT из [4] на аналогичную при использовании ОЛС вместо ЛС и применить концепцию решения на базе ОЛС, тогда получим для данного примера то же множество равновесий, что и по [5, 16]. Однако МК-оценки выигрышей игроков на базе разных сверток отличаются. Это различие связано не столько со спецификой формулы (0.2) (появлением лишних точек Слейтера), сколько с иной, чем в [4, 5], трактовкой МК-осреднения при учете смешанных стратегий партнера, которая для ЛС не дает отличий от стандартной, а при использовании ОЛС уже проявляется (см. в разд. 1). Но подчеркнем, что предложенная в настоящей статье трактовка соответствует подходу стохастической оптимизации в приложении к МК-задачам и применение методов стохастического программирования для численного решения стохастических МК-задач будет приводить именно к таким значениям. Для стандартной трактовки, когда осредняются все частные критерии, а не их свертка, для рассматриваемого примера результаты с ЛС и с ОЛС будут совпадать. В частности, в качестве значения конечной МК-игры будет построено множество с рис. 2 слева, а при Х = [0, 1] – множество, изображенное слева на рис. 3. Тем не менее, ниже останемся в рамках трактовки осреднения, изначально принятой в работе.

На рис. 3 также видно, что SОЛС $ \subseteq $ EPH(SЛС). Исследуем выполнение включения в общей МК-игре по аналогии с доказательством утверждения из [8] на базе неравенства ${\text{E}}G(\{ {{f}_{i}}\} ,{\mathbf{\mu }}) \leqslant G(\{ {\text{E}}{{f}_{i}}\} ,{\mathbf{\mu }})$ из разд. 0. Обозначим

МК-игру двух лиц с нулевой суммой. Пусть, когда X, Y конечны, первый и второй игроки применяют смешанные стратегии p и q соответственно (для упрощения обозначений жирным шрифтом здесь и далее выделены векторы p(·) и q(·) с компонентами – вероятностями чистых стратегий). Предполагаем, что оба игрока ориентируются в таком случае на осредненные частные критерии Еfi по своим смешанным стратегиям, а по смешанным стратегиям партнера каждый игрок осредняет используемую им свертку своих частных критериев. При бесконечности X и (или) Y далее будем считать их выпуклыми компактами и все частные критерии вогнутыми по x и выпуклыми по y.

Обозначим для игры Г через RЛС и RОЛС множества из всех равновесий по Нэшу в скалярных играх двух лиц с функциями выигрышей – свертками ЛС и ОЛС (или их средними по компонентам смешанной стратегии партнера) частных критериев (или их средних по своим стратегиям) с различными весами. Обозначим через ZЛС множество значений z с zi = Efi для седловых пар (p, q) из RЛС, а через ZОЛС – множество векторов ${\mathbf{\mu }}{\text{E}}G(\{ {{f}_{i}}\} ,{\mathbf{\mu }})$ для пар (p(μ), q(μ)) из RОЛС, где μ – вектор коэффициентов свертки (из симплекса в m-мерном пространстве), а (p(μ), q(μ)) – равновесия в тех скалярных играх с ОЛС, в которых у первого игрока свертка с весовыми коэффициентами μ (при любых параметрах свертки у второго). В сделанных предположениях (с учетом перехода на смешанные стратегии p и q в конечной игре Г) равновесия для всех построенных указанным образом из Г скалярных игр существуют в силу вогнутости по xp) и выпуклости по yq) функции-свертки (ее математического ожидания).

У т в е р ж д е н и е 1. Для введенной МК-игры Г из условия RОЛС $ \subseteq $ RЛС следует ZОЛС $ \subseteq $ $ \subseteq $ EPH(ZЛС).

Д о к а з а т е л ь с т в о. Пусть RОЛС $ \subseteq $ RЛС, выберем (p, q) из RОЛС. В случае если X и (или) Y бесконечные, под соответствующими p и (или) q будем подразумевать чистые стратегии. Рассмотрим для (p, q) вектор w из ZОЛС, его компоненты

${{w}_{k}} = {{\mu }_{k}}\sum\limits_j {q({{y}^{j}})\mathop {\min }\limits_{i:{{\mu }_{i}} > 0} \frac{{{\text{E}}{{f}_{i}}(p,{{y}^{j}})}}{{{{\mu }_{i}}}}} \leqslant {{\mu }_{k}}\mathop {\min }\limits_{i:{{\mu }_{i}} > 0} \sum\limits_j {q({{y}^{j}})\frac{{{\text{E}}{{f}_{i}}(p,{{y}^{j}})}}{{{{\mu }_{i}}}}} = {{\mu }_{k}}\mathop {\min }\limits_{i:{{\mu }_{i}} > 0} \frac{{{\text{E}}{{f}_{i}}(p,q)}}{{{{\mu }_{i}}}},\quad k = \overline {1,m} ,$
где Y = {y j}. Для таких k, что ${{\mu }_{k}} > 0$, выполнено

${{\mu }_{k}}\mathop {\min }\limits_{i:{{\mu }_{i}} > 0} \frac{{{\text{E}}{{f}_{i}}(p,q)}}{{{{\mu }_{i}}}} \leqslant {{\mu }_{k}}\frac{{{\text{E}}{{f}_{k}}(p,q)}}{{{{\mu }_{k}}}} = {\text{E}}{{f}_{k}}(p,q).$

Поскольку по условию пара (p, q) еще и принадлежит RЛС, а математическое ожидание ЛС совпадает с ЛС математических ожиданий частных критериев, то вектор, состоящий из ${\text{E}}{{f}_{k}}(p,q)$, включен в ZЛС. И так как все компоненты wk не превосходят ${\text{E}}{{f}_{k}}(p,q)$, k = 1, …, m, то w ∈ EPH(ZЛС). В силу произвольности (p, q) получили, что ZОЛС $ \subseteq $ EPH(ZЛС) в условиях утверждения 1 (в частности, для примеров из [810]).

У т в е р ж д е н и е 2. Для введенной МК-игры Г на бесконечных X и Y имеем RОЛС = RЛС и ZОЛС $ \subseteq $ EPH(ZЛС).

Д о к а з а т е л ь с т в о. В случае когда X и Y бесконечные, в силу рассмотрения для RЛС оптимума по Слейтеру (см. в разд. 0) представление решения МК-игры по [16] с помощью RЛС справедливо, согласно [5]. Это значит, что для всех пар (x, y) из RЛС выполнено $x \in {{X}_{S}}$ для F(x, y) при фиксированном y и наоборот. Указанное условие можно из [1, 7] записать и с помощью ОЛС. В обратную сторону: для (x, y) из RОЛС выполнено по свойствам ОЛС, что $x \in {{X}_{S}}$ для F(x, y) при данном y, и в силу выпуклости задачи из [2] вытекает, что x максимизирует при этом y еще и ЛС, а выбор y тоже минимизирует ЛС с данным x, т.е. (x, y) окажется из RЛС. Таким образом RОЛС = RЛС для игр без осреднения (на бесконечных X и Y). Далее применяем утверждение 1.

Из утверждения 2, перейдя к конечной МК-игре в смешанных стратегиях, когда частные критерии заменены их средними по (p, q), получим то же равенство RЛС = RОЛС и то же свойство ZОЛС $ \subseteq $ EPH(ZЛС). Отметим, что для этой постановки аксиомы, предложенные в [4] для понятия решения МК-игры, кроме WEIGHT, выполняются и для RОЛС. А так как, согласно [4], RЛС – максимальное (по включению) множество, являющееся решением (в смысле аксиоматики [4]) конечной МК-игры в смешанных стратегиях, то для подобной МК-игры из результатов [4] получаем RОЛС$ \subseteq $ RЛС. Утверждение 2 усиливает этот результат для стандартной постановки – с осреднением частных критериев, а не их свертки.

Для исследуемой постановки (с осреднением свертки, а не каждого критерия) пока не удается доказать аналогичное включение для значений игры Г без предположения о включении RОЛС$ \subseteq $ RЛС. Обоснуем более слабый общий результат. Рассмотрим сначала случай конечного Y и перехода к смешанным стратегиям второго игрока, т.е. к парам (x, q).

У т в е р ж д е н и е 3. Во введенной МК-игре Г с бесконечным X для любой точки w из ZОЛС найдется точка из ZЛС, которую w не доминирует (по Слейтеру).

Д о к а з а т е л ь с т в о. Выберем (x, q) из RОЛС. Тогда q реализует при выбранном x минимум ОЛС из Efi с некоторым вектором весовых коэффициентов ν и (из [1, 2]) минимум ЛС из Efi (с другими весами, пусть λ). В свою очередь x максимизирует для данного q математическое ожидание ОЛС (при векторе весовых коэффициентов μ) на X. Рассмотрим для (x, q) вектор w из ZОЛС, его компоненты

${{w}_{k}} = {{\mu }_{k}}\sum\limits_j {q({{y}^{j}})\mathop {\min }\limits_{i:{{\mu }_{i}} > 0} \frac{{{{f}_{i}}(x,{{y}^{j}})}}{{{{\mu }_{i}}}}} ,\quad k = \overline {1,m} ,$
где Y = {yj}. Для таких k, что ${{\mu }_{k}} > 0$, запишем, как и выше при доказательстве утверждения 1,

${{w}_{k}} = {{\mu }_{k}}\sum\limits_j {q({{y}^{j}})\mathop {\min }\limits_{i:{{\mu }_{i}} > 0} \frac{{{{f}_{i}}(x,{{y}^{j}})}}{{{{\mu }_{i}}}}} \leqslant {{\mu }_{k}}\sum\limits_j {q({{y}^{j}})\frac{{{{f}_{k}}(x,{{y}^{j}})}}{{{{\mu }_{k}}}}} = \sum\limits_j {q({{y}^{j}}){{f}_{k}}(x,{{y}^{j}}) = {\text{E}}{{f}_{k}}(x,q)} .$

При этом для $(x*,q*)$ – седловой точки игры в ЛС с вектором весов λ у обоих игроков имеем, что поскольку стратегия q реализовала минимум ЛС в точке x, то

$\sum\limits_k {{{\lambda }_{k}}{\text{E}}{{f}_{k}}(x,q)} \leqslant \sum\limits_k {{{\lambda }_{k}}{\text{E}}{{f}_{k}}(x,q*)} \leqslant \sum\limits_k {{{\lambda }_{k}}{\text{E}}{{f}_{k}}(x*,q*)} .$

Следовательно, вектор с компонентами ${\text{E}}{{f}_{k}}(x,q)$ не может доминировать вектор z из ZЛС с компонентами ${\text{E}}{{f}_{k}}(x*,q{\text{*}})$. А так как все компоненты ${{w}_{k}}$ не превосходят ${\text{E}}{{f}_{k}}(x,q)$, то и w не может доминировать вектор z из ZЛС. В силу произвольности (x, q) получили утверждение 3 для рассматриваемого случая (которому соответствует пример из [9]).

Попытаемся аналогично проанализировать случай конечного X и бесконечного Y. Возьмем произвольную пару (p, y) из RОЛС (при некоторых весовых коэффициентах μ у первого ЛПР) и соответствующий вектор w из ZОЛС :

${{w}_{k}} = {{\mu }_{k}}\mathop {\min }\limits_{i:{{\mu }_{i}} > 0} \sum\limits_j {p({{x}^{j}})\frac{{{{f}_{i}}({{x}^{j}},y)}}{{{{\mu }_{i}}}}} ,$
где X = {x j}, k = 1, …, m. Для таких k, что μk > 0, выполнено

${{w}_{k}} \leqslant {{\mu }_{k}}\sum\limits_j {p({{x}^{j}})\frac{{{{f}_{k}}({{x}^{j}},y)}}{{{{\mu }_{k}}}}} = \sum\limits_j {p({{x}^{j}}){{f}_{k}}({{x}^{j}},y) = } \;{\text{E}}{{f}_{k}}(p,y).$

С другой стороны, поскольку p реализует максимум ОЛС средних, т.е. ${\text{E}}{{f}_{i}}(p,y)$, для данного y (с весами μ), то для некоторого вектора весовых коэффициентов λ, согласно [7], стратегия p максимизирует и ЛС при том же y. Так что для $(p{\text{*}},\,y*)$ – седловой точки игры в ЛС с вектором весов λ у обоих игроков справедливо

$\sum\limits_k {{{\lambda }_{k}}{\text{E}}{{f}_{k}}(p,y)} \geqslant \sum\limits_k {{{\lambda }_{k}}{\text{E}}{{f}_{k}}(p*,y)} \geqslant \sum\limits_k {{{\lambda }_{k}}{\text{E}}{{f}_{k}}(p*,y*)} .$

Поэтому сравнить w с полученным $z = ({\text{E}}{{f}_{1}}(p*,y*),\;...,\;{\text{E}}{{f}_{m}}(p*,y*))$ не удается. Вопрос об обобщении утверждения 3 на случай конечного X остался открытым.

Основным недостатком рассмотренного подхода с осреднением свертки частных критериев в МК-играх является для ОЛС потеря симметрии результатов игроков, интересы которых исходно были противоположными. Действительно, если вернуться к модельному примеру игры двух лиц с рис. 2 [10], то при использовании игроками ЛС получим для ЛПР П, что значение $Z_{{{\text{Л С }}}}^{'}$ МК-игры для него совпадает с ZЛС (значением игры для ЛПР С). В случае ОЛС значение МК-игры для П определяется как

$Z_{{{\text{О Л С }}}}^{'}\, = \,\{ w{\text{'}}\, \in \,{{R}^{2}}{\text{|}}w{\text{'}}\, = \,(\nu ,1\, - \,\nu )\overline {{{M}_{П }}} (p(\mu ,\nu ),q(\mu ,\nu ),\nu ),\quad (p(\mu ,\nu ),q(\mu ,\nu ))\, \in \,{{R}_{{{\text{О Л С }}}}},\quad \mu \, \in \,[0,1],\quad \nu \, \in \,[0,1]\} ,$$\overline {{{M}_{{\text{П }}}}} (p,q,\nu ) = \left\{ \begin{gathered} p\max \left\{ {\frac{{q + 1}}{{2\nu }},0} \right\} + (1 - p)\max \left\{ {0,\frac{{2 - q}}{{2(1 - \nu )}}} \right\}\,\,{\text{п р и }}\,\,\nu \in (0,1), \\ \frac{{p(q + 1)}}{2}\,\,{\text{п р и }}\,\,\nu = 1, \\ \frac{{(1 - p)(2 - q)}}{2}\,\,{\text{п р и }}\,\,\nu = 0. \\ \end{gathered} \right.$

Заметим, что когда $\nu $ стремится к 0 или 1, среднее значение ОЛС игрока П стремится к бесконечности (в отличие от значения игры для ЛПР С). Причем если для первого варианта равновесия в (4.3) значение $\overline {{{M}_{{\text{П }}}}} (p,q,\nu )$ от ν не зависит и остается конечным (=3/2), то для второго варианта оно растет с приближением ν к 0, а для третьего – к 1. В итоге, в качестве аппроксимации для $Z_{{{\text{О Л С }}}}^{'}$ (с использованием ε-сети на $\nu \in [0,1]$) будем иметь вместо ZОЛС, изображенного справа на рис. 2, множество, изображенное справа на рис. 4 (фрагмент которого показан на рис. 4 слева). Чем мельче сеть, тем дальше уходят полосы на осях на рис. 4, их толщина для ${{w}_{k}} \geqslant 1$ одинакова (= 1/2), и они будут полностью закрашены. Линия на рис. 4 слева при ${{w}_{k}} < 0.5$, напротив, не имеет толщины, а просто на рисунке показана жирными точками-ромбиками.

Рис. 4.

Аппроксимация $Z_{{{\text{О Л С }}}}^{'}$ (справа) и ее укрупненный фрагмент (слева) для ЛПР П

Сравнивая левые графики на рис. 2 и 4, видим, что для $Z_{{{\text{Л С }}}}^{'}$ и $Z_{{{\text{О Л С }}}}^{'}$ не верны соотношения утверждения 1, несмотря на совпадение RЛС и RОЛС. Для минимизирующего вектор-функцию выигрышей ЛПР П аналогичное утверждение требует небольшого уточнения. Обозначим через EPH> оболочку Эджворта–Парето в задаче на минимум:

${\text{EP}}{{{\text{H}}}_{ \geqslant }}(Z)\mathop = \limits^{{\text{def}}} \{ w \in {{{\mathbf{R}}}^{m}}|w \geqslant z \in Z\} .$

У т в е р ж д е н и е 4. Для введенной выше МК-игры Г из условия RОЛС $ \subseteq $ RЛС следует, что для минимизирующего векторный критерий игрока все точки w с ${{w}_{k}} \ne 0\,{\text{и з }}\,Z_{{{\text{О Л С }}}}^{'}\,{\text{п р и н а д л е ж а т }}\,{\text{EP}}{{{\text{H}}}_{ \geqslant }}(Z_{{{\text{Л С }}}}^{'}).$

Д о к а з а т е л ь с т в о. Пусть RОЛС $ \subseteq $ RЛС, выберем (p, q) из RОЛС. В случае если X и (или) Y бесконечные, под соответствующими p и (или) q будем подразумевать чистые стратегии. Рассмотрим для (p, q) вектор w из $Z_{{{\text{О Л С }}}}^{'}$, его компоненты

${{w}_{k}} = {{\nu }_{k}}\sum\limits_j {p({{x}^{j}})\mathop {\max }\limits_{i:{{\nu }_{i}} > 0} \frac{{{\text{E}}{{f}_{i}}({{x}^{j}},q)}}{{{{\nu }_{i}}}}} \geqslant {{\nu }_{k}}\mathop {\max }\limits_{i:{{\nu }_{i}} > 0} \sum\limits_j {p({{x}^{j}})\frac{{{\text{E}}{{f}_{i}}({{x}^{j}},q)}}{{{{\nu }_{i}}}}} = {{\nu }_{k}}\mathop {\max }\limits_{i:{{\nu }_{i}} > 0} \frac{{{\text{E}}{{f}_{i}}(p,q)}}{{{{\nu }_{i}}}},\quad k = \overline {1,m} ,$
где X = {x j}. Для таких k, что ${{\nu }_{k}} > 0$, выполнено

${{\nu }_{k}}\mathop {\max }\limits_{i:{{\nu }_{i}} > 0} \frac{{{\text{E}}{{f}_{i}}(p,q)}}{{{{\nu }_{i}}}} \geqslant {{\nu }_{k}}\frac{{{\text{E}}{{f}_{k}}(p,q)}}{{{{\nu }_{k}}}} = {\text{E}}{{f}_{k}}(p,q).$

По условию (p, q) принадлежит и RЛС, а так как математическое ожидание ЛС совпадает с ЛС математических ожиданий частных критериев, то вектор, состоящий из ${\text{E}}{{f}_{k}}(p,q)$, включен в $Z_{{{\text{Л С }}}}^{'}$ = ZЛС. И поскольку, как показано выше, все ненулевые компоненты wk не меньше, чем ${\text{E}}{{f}_{k}}(p,q)$, k = 1, …, m, получаем, что при w > 0 выполнено $w \in $ EPH>(ZЛС). В силу произвольности (p, q) доказали утверждение 4.

Теперь, с учетом поправки на участки на осях координат можно говорить о том, что утверждение 1 обобщается и для минимизирующего игрока: $Z_{{{\text{О Л С }}}}^{'}$$\{ w > 0\} \subseteq {\text{EP}}{{{\text{H}}}_{ \geqslant }}({{Z}_{{{\text{Л С }}}}})$ при RОЛС $ \subseteq $ RЛС. Такое включение уже справедливо для левых графиков на рис. 2 и 4.

Заключение. Использование смешанных стратегий в МК-оптимизации не дает однозначности при совмещении со скаляризацией, поскольку не всегда математическое ожидание свертки частных критериев совпадает со сверткой их средних значений, например в случае логической свертки или свертки Гермейера. При этом переход к средним критериям не обусловлен содержательно и не факт, что конструктивен (например, для стохастических постановок – см. разд. 2). При рассмотрении МК-игр двух лиц с нулевой суммой (разд. 4) возникает практически интересная ситуация, когда по своей смешанной стратегии игрок осредняет значения частных критериев, а по смешанным стратегиям противника применяет осреднение свертки критериев. Тогда для ОЛС не получается доказать аксиому согласованности (CONS) из [4], продолжающую принцип оптимальности, принимаемый для себя каждым игроком по отдельности, на большее их число в игре, и тем самым обосновать включение RОЛС $ \subseteq $ RЛС. И как только речь идет об осреднении свертки, надо иметь в виду, что разные свертки могут дать различные результаты в качестве решения.

В настоящее время понятие об осреднении свертки встречается в литературе лишь в работах авторов статьи. В последних зарубежных публикациях (см., например, в [17], как и в классических [46]) по смешанным стратегиям сразу берется математическое ожидание частных критериев (отчего теряется специфика МК-задачи со случайным фактором), а также по большей части вслед за [5] применяется линейная скаляризация. Исследование предлагаемой статьи призвано привлечь внимание к односторонности подобного подхода. Для дальнейшего представляет интерес рассмотрение не только умозрительного примера игры из разд. 1, 4, но и ряда экономических моделей, в частности, из [1820], для которых имеет смысл проанализировать, чем отличается решение и значение игры, если игроки-ЛПР ориентируются на скаляризацию функции выигрышей с помощью свертки Гермейера.

Список литературы

  1. Гермейер Ю.Б. Введение в теорию исследования операций. М.: Наука, 1971.

  2. Подиновский В.В., Ногин В.Д. Парето-оптимальные решения многокритериальных задач. М.: Наука, 1982.

  3. Лотов А.В., Поспелова И.И. Многокритериальные задачи принятия решений. М.: МАКС Пресс, 2008.

  4. Voorneveld M., Vermeulen D., Borm P. Axiomatizations of Pareto Equilibria in Multicriteria Games // Games and Economic Behavior. 1999. V. 28. P. 146–154.

  5. Shapley L.S. Equilibrium Points in Games with Vector Payoffs // Naval Res. Log. Quarterly. 1959. № 6. P. 57–61.

  6. Морозов В.В. Смешанные стратегии в игре с векторными выигрышами // Вестн. МГУ. Вычисл. математика и кибернетика. 1978. № 4. С. 44–49.

  7. Смирнов М.М. О логической свертке вектора критериев в задаче аппроксимации множества Парето // ЖВМ и МФ. 1996. Т. 36. № 3. С. 62–74.

  8. Зенюков А.И., Новикова Н.М., Поспелова И.И. Метод сверток в многокритериальных задачах с неопределенностью // Изв. РАН. ТиСУ. 2017. № 5. С. 27–45.

  9. Новикова Н.М., Поспелова И.И. Метод сверток в многокритериальных играх // ЖВМ и МФ. 2018. Т. 58. № 2. С. 192–201.

  10. Новикова Н.М., Поспелова И.И. Смешанные стратегии в векторной игре и свертка Гермейера // Тр. IX Моск. междунар. конф. по исследованию операций (ORM2018). Т. 2. М.: МАКС Пресс, 2018. С. 428–432.

  11. Ермольев Ю.М. Стохастическое программирование. М.: Наука, 1976.

  12. Нестеров Ю.Е. Алгоритмическая выпуклая оптимизация: Дис. … докт. физ.-мат. наук. М.: МФТИ, 2013.

  13. Федоров В.В. Численные методы максимина. М.: Наука, 1979.

  14. Поспелова И.И. Классификация задач векторной оптимизации с неопределенными факторами // ЖВМ и МФ. 2000. Т. 40. № 6. С. 860–876.

  15. Крейнес E.M., Новикова Н.М., Поспелова И.И. Многокритериальные игры двух лиц с противоположными интересами // ЖВМ и МФ. 2002. Т. 42. № 10. С. 1487–1502.

  16. Blackwell D. An Analog of the Minimax Theorem for Vector Payoffs // Pacific J. Mathematics. 1956. V. 6. № 1. P. 1–8.

  17. Hamel A.H., Löhne A. A Set Optimization Approach to Zero-Sum Matrix Games with Multi-Dimensional Payoffs // Mathematical Methods of Operations Research. 2018. V. 88. Iss. 3. P. 369–397.

  18. Mármol A.M., Monroy L., Caraballo M.A. et al. Equilibria with Vector-Valued Utilities and Perfect Information. The Analysis of Mixed Duopoly // Theory and Decision. 2017. V. 83. № 3. P. 365–383.

  19. Caraballo M.A., Mármol A.M., Monroy L. et al. Cournot Competition under Uncertainty: Conservative and Optimistic Equilibria // Review of Economic Design. 2015. V. 19. № 2. P. 145–165.

  20. Bade S. Nash Equilibrium in Games with Incomplete Preferences // Economic Theory. 2005. V. 26. № 2. P. 309–332.

Дополнительные материалы отсутствуют.