Автоматика и телемеханика, № 11, 2019
Стохастические системы
© 2019 г. С.Н. ВАСИЛЬЕВА (sofia_mai@mail.ru),
Ю.С. КАН, д-р физ.-мат. наук (yu_kan@mail.ru)
(Московский авиационный институт
(национальный исследовательский университет))
АППРОКСИМАЦИЯ ВЕРОЯТНОСТНЫХ ОГРАНИЧЕНИЙ
В ЗАДАЧАХ СТОХАСТИЧЕСКОГО ПРОГРАММИРОВАНИЯ
С ИСПОЛЬЗОВАНИЕМ ЯДРА ВЕРОЯТНОСТНОЙ МЕРЫ1
Рассматривается задача линейного стохастического программирования
с детерминированной целевой функцией и индивидуальными вероятност-
ными ограничениями. Каждое вероятностное ограничение представля-
ет собой ограничение снизу на функцию вероятности, равную вероятно-
сти выполнения некоторого линейного неравенства. Предлагается снача-
ла представить вероятностные ограничения в виде эквивалентных нера-
венств для функций квантили. После этого каждая функция квантили
аппроксимируется с помощью доверительного метода. Главный аналити-
ческий инструмент основан на полиэдральной аппроксимации p-ядра для
многомерного вероятностного распределения. Для случая когда функции
вероятности задаются линейными неравенствами, ограничения на функ-
ции квантили сколь угодно точно аппроксимируются системами детерми-
нированных линейных неравенств. В результате исходная задача аппрок-
симируется задачей линейного программирования.
Ключевые слова: стохастическое программирование, вероятностные огра-
ничения, ядро вероятностной меры.
DOI: 10.1134/S0005231019110059
1. Введение
Введем основные понятия и обозначения. Пусть η - случайная величи-
на с функцией распределения Fη(y) = P y}, где P обозначает вероят-
ность. Тогда p-квантиль распределения случайной величины η для заданного
p ∈ (0,1) определяется стандартным соотношением
[η]p = min{y : Fη(y) p}.
Пусть f(u, ξ) - вещественная функция потерь, зависящая от вектора стра-
тегии u и случайного вектора ξ. Если функция потерь является борелев-
ской по ξ, то ηu = f(u, ξ) является случайной величиной. Ее функция рас-
пределения называется функцией вероятности для функции потерь f(u, ξ),
и p-квантиль [ηu]p , как функция u, называется функцией квантили для той
1 Результаты работы получены в рамках выполнения Государственного задания Мин-
обрнауки № 2.2461.2017/4.6.
93
же функции потерь. Роль функций вероятности и квантили в стохастическом
программировании описана в [1]. Современное состояние теории оптимизаци-
онных задач с такими функциями достаточно полно отражено в [2]. Наиболее
близки к этой проблематике задачи стохастического программирования с ве-
роятностными ограничениями. Их можно определить двумя способами. Пер-
вый способ связан с совместными вероятностными ограничениями. Стра-
тегия u является допустимой для такого ограничения тогда и только тогда,
когда
(1)
P{g(u, ξ) 0} p,
где g(u, x) - вектор-функция, p ∈ (0, 1) - заданная вероятность и неравенство
g(u, ξ) 0 понимается покомпонентно. Таким образом, совместные вероят-
ностные ограничения являются ограничениями на вероятность выполнения
системы неравенств, зависящих от случайных параметров. Второй способ свя-
зан с заданием индивидуальных вероятностных ограничений, которые обра-
зуют следующую систему вероятностных неравенств:
(2)
P{gi(u, ξ) 0} pi
∀i = 1,k,
где вещественные функции gi(u, ξ) можно интерпретировать как компоненты
вектор-функции g(u, ξ). Заметим, что с формальной точки зрения совмест-
ные вероятностные ограничения могут быть преобразованы только в одно
индивидуальное вероятностное ограничение
{
}
(3)
P max gi(u,ξ) 0
p.
i=1,k
Однако на этом пути можно потерять “хорошие” свойства функций gi, напри-
мер их линейность.
Впервые вероятностные ограничения в форме совместных вероятностных
ограничений были введены и рассмотрены в [3], где функция g(u, ξ) = T u - ξ
имеет линейную структуру, T - технологическая матрица. Ранее исследо-
вания вероятностных ограничений были сконцентрированы в основном на
построении детерминированных эквивалентов. Их суть - преобразование ве-
роятности в левой части (1) в детерминированную функцию вектора страте-
гии [4]. К сожалению, класс задач, в которых могут быть построены такие
эквиваленты, является достаточно узким. Наиболее сложный случай возни-
кает, если случайные параметры - компоненты вектора ξ - являются взаимно
зависимыми. Это препятствие было преодолено в [5, 6] путем использова-
ния методов и моделей целочисленного программирования и понятия p-эф-
фективных точек многомерного распределения вероятностей в случае, ко-
гда g(u, ξ) = T u - ξ имеет детерминированную технологическую матрицу T.
Этот результат был позже распространен на случай со случайной технологи-
ческой матрицей [7], см. также [8].
Большой прорыв в этой области связан с именем венгерского математика
Прекопы, который получил достаточные условия выпуклости допустимого
множества, определенного индивидуальными вероятностными ограничения-
ми. Эти условия основаны на том, что многие многомерные распределения
обладают свойством логарифмической вогнутости. Этот факт позволил при-
94
менить методы решения задач выпуклого программирования для построе-
ния численных методов решения задач стохастического программирования с
вероятностными ограничениями. Основные результаты по данному вопросу
собраны в [9]. Хотелось бы также отметить другие результаты, достигну-
тые в конце XX в., а именно эффективные алгоритмы проверки выполнения
вероятностных ограничений. Хороший обзор этих алгоритмов можно найти
в [10].
Среди недавних результатов, определяющих современное состояние тео-
рии задач стохастического программирования с вероятностными ограниче-
ниями в первую очередь стоит отметить алгоритмы, основанные на методе
Монте-Карло (SAA - Sample Average Approximation), см., например, [11-18],
также отметим метод стохастической аппроксимации [19, 20] и математиче-
ский аппарат, основанный на понятии p-эффективных точек [21-23]. Послед-
ний оказался особенно конструктивным для задач стохастического програм-
мирования с вероятностными ограничениями, в которых случайные парамет-
ры имеют дискретное распределение. Отметим, что понятие p-эффективных
точек фактически является расширением понятия p-квантили в многомерном
случае.
Значительную роль в развитии теории стохастического программирования
также сыграли публикации [24-27], где развит метод решения задачи кван-
тильной оптимизации с дискретными случайными параметрами путем све-
дения к задаче смешанного линейного программирования большой размер-
ности. В отличие от этих работ, в настоящей статье рассматриваются зада-
чи стохастического программирования в случае непрерывно распределенных
случайных параметров модели. В [28] исследована задача квантильной опти-
мизации с кусочно-линейной функцией потерь и непрерывными случайными
параметрами. Предложен алгоритм нахождения некоторого решения, назы-
ваемого “гарантирующим” и дана оценка его точности по значению критерия.
На примерах показано, что гарантирующее решение может быть удовлетво-
рительно. Вместе с тем следует отметить, что сходимость гарантирующего
решения к точному не обоснована.
Мотивация авторов настоящей статьи связана с двумя обстоятельствами.
Во-первых, большинство публикаций, посвященных вероятностным ограни-
чениям, рассматривают случаи, когда функции g(u, ξ) и gi(u, ξ) линейны по
случайным параметрам. Во-вторых, некоторые недавние результаты авторов
в области стохастического программирования с вероятностными критериями
нацелены именно на такой класс задач. Основными публикациями авторов по
данной тематике являются [29, 30]. В них предлагаются алгоритмы решения
задачи минимизации функции квантили, основанные на концепции p-ядра
вероятностного распределения. Его определение и свойства описаны в разде-
ле 2. В разделе 3 показано, что совместные и индивидуальные вероятностные
ограничения могут быть записаны как неравенства для функции(й) кванти-
ли и представлены в детерминированной форме с помощью p-ядра. В раз-
деле 4 рассматривается задача стохастического программирования с детер-
минированной линейной функцией потерь и несколькими индивидуальными
вероятностными ограничениями, неравенства в которых имеют билинейную
структуру. Такая задача сводится к задаче линейного программирования с
95
помощью подхода, предложенного в [29] для решения задачи квантильной оп-
тимизации с билинейной функцией потерь. Основу подхода составляет внеш-
няя, сколь угодно точная полиэдральная аппроксимация p-ядра [29].
2. p-Ядро многомерного распределения
Введем понятие p-ядра [1] для n-мерного случайного вектора ξ. Это поня-
тие играет ключевую роль при построении детерминированных эквивален-
тов или выпуклых аппроксимаций вероятностных ограничений, в которых
функции gi(u, ξ), i = 1, k, линейны по ξ. Здесь и далее вероятностная мера P
ассоциируется с распределением вектора ξ, т.е. она определена на всех изме-
римых по Борелю подмножествах Rn. Также будем полагать, что векторы
из Rn являются вектор-столбцами.
Измеримое по Борелю множество S является p-доверительным, если спра-
ведливо P(S) p. p-Ядро K(p) определяется как пересечение всех замкнутых
выпуклых p-доверительных множеств [2]. С другой стороны, для него спра-
ведливо следующее представление [2]:
{
}
(4)
K(p) =
x ∈ Rn : cTx bp(c)
,
∥c∥=1
где ∥·∥ - евклидова норма вектора, а bp(c) = [cTξ]p - квантиль уровня p. Таким
образом, p-ядро совпадает с пересечением всех замкнутых p-доверительных
полупространств, соответствующих единичным векторам внешней нормали c.
Как показано в [29], множество K(p) всегда (т.е. для любого распределения P)
не пусто, если p > n/(n + 1). Очевидно, что непустое p-ядро является выпук-
лым компактным множеством. Также в [29] предложен алгоритм аппрокси-
мации p-ядра выпуклым многогранником
{
}
(5)
KN(p) =
x ∈ Rn : cTx bp(c)
,
c∈CN
где CN - конечное множество из N единичных векторов. Этот алгоритм осно-
ван на построении сгущающейся сети точек на поверхности единичной сфе-
ры, задающих множество векторов нормали c ∈ Rn. Алгоритм построения
векторов нормали заключается в нанесении равномерной сети точек на по-
верхность n-мерного куба. Проекция этих точек на единичную сферу и бу-
дет задавать множество CN векторов нормали c. Такое множество векторов
нормали сгущается с увеличением числа N. Соседними векторами из множе-
ства CN на единичной сфере назовем векторы, прообразы которых на кубе
являются соседними точками указанной выше равномерной сети.
В некоторых случаях в [29] для функции bp(c) удается получить анали-
тическое выражение. В общем случае это сделать проблематично. В таких
ситуациях вместо bp(c) можно попытаться использовать ее выборочную оцен-
куbp(c) [2] и аппроксимировать p-ядро множеством
{
}
(6)
KN (p) =
x ∈ Rn : cTx bp(c)
c∈CN
96
Теоретическое исследование возможности использования
KN (p) вместо
KN(p) выходит за рамки данной статьи.
Алгоритм построения густого множества векторов CN , предложенный
в [29], реализован в программном модуле ProKer (Probabilistic Kernel) [31]
для пакета MATLAB в случае n = 2, где компоненты вектора ξ независимы
и одинаково распределены. Программный модуль ProKer разработан для ис-
следовательских целей. Он позволяет получить визуальные представления
p-ядра для различных p.
Схожая идея аппроксимации выпуклых p-доверительных множеств с по-
мощью многогранников использовалась ранее в [25]. Отметим, что p-ядро не
является p-доверительным множеством.
Очевидно, что K(p) ⊆ K(q) для всех p < q, так как каждое p-довери-
тельное полупространство с вектором нормали c является подмножеством
q-доверительного полупространства с тем же вектором внешней нормали.
Наиболее важным и принципиальным для детерминированной аппрокси-
мации вероятностных ограничений свойством p-ядра непрерывных распреде-
лений является регулярность [2]. p-Ядро является регулярным тогда и только
тогда, когда каждое замкнутое полупространство, содержащее его, является
p-доверительным. Пример нерегулярного p-ядра можно найти в [2]. Там же
сформулированы следующие достаточные условия регулярности p-ядра.
Теорема 1. Пусть выполнены следующие условия:
(i) случайный вектор ξ имеет плотность вероятности,
(ii) граница p-ядра K(p) для распределения вектора ξ является гладкой
поверхностью в Rn.
Тогда K(p) является регулярным.
Для обобщения теоремы 1 определим множество Sp всех точек x на гра-
нице p-ядра, для которых выполнено условие x Arg maxx∈K(p) cT x для раз-
личных c. Другими словами, вектор внешней нормали к K(p) в точках из Sp
не является единственным.
Теорема 2. Пусть выполнены следующие условия:
(i) случайный вектор ξ имеет плотность вероятности,
(ii) P{cTξ cTx} p для любого x ∈ Sp и любого единичного нормального
вектора c.
Тогда K(p) является регулярным.
Доказательство теоремы 2 приведено в Приложении.
Следующий, не менее важный результат, также доказан в [2, след-
ствие 3.13].
Теорема 3. Пусть случайный вектор ξ имеет регулярное p-ядро для
некоторого p ∈ (0,1). Тогда
[
]
aT(u)ξ + b(u)p = b(u) + max aT(u)x.
x∈K(p)
Именно эта теорема является основополагающей при построении детерми-
нированных эквивалентов или аппроксимаций вероятностных ограничений,
97
рассмотренных в разделе 3. Из свойства регулярности вытекает неравенство
треугольника для квантилей, т.е.
[ξ1 + ξ2]p [ξ1]p + [ξ2]p,
если p-ядро распределения случайного вектора ξ = (ξ1, ξ2)T является регу-
лярным. Этот результат следует из цепочки неравенств:
[ξ1 + ξ2]p =
max
(x1 + x2) max
x1 + max x2 = [ξ1]p +[ξ2]p.
(x1,x2)∈K(p)
(x1,x2)∈K(p)
(x1,x2)∈K(p)
В заключение настоящего раздела приведем некоторые новые свойства
p-ядер, которые имеют самостоятельный интерес. Обозначим координа-
ты векторной медианы μ случайного вектора ξ с помощью соотношения
μk = [ξk]1/2 для всех k = 1,... ,n.
Теорема 4. Пусть выполнены следующие условия:
(i) случайный вектор ξ имеет плотность вероятности;
(ii) Pk < ξk < μk + ε} > 0 и Pk - ε < ξk < μk} > 0 для любого ε > 0,
k = 1,...,n;
(iii) p-ядро K(p) не пусто для любого p ∈ (1/2, 1).
Тогда при p = 1/2 p-ядро K(p) является регулярным и содержит един-
ственную точку μ.
Доказательство теоремы 4 приведено в Приложении.
Свойство регулярности ядра, состоящего из единственной точки - медиа-
ны μ - приводит к ее устойчивости по отношению к ортогональным преобра-
зованиям. Рассмотрим новый случайный вектор ξ = Sξ, где S - ортогональ-
ная (n × n)-матрица, т.е. ST = S-1. Обозначим через μ медиану вектора ξ, а
через μ - медиану вектора ξ. Регулярность μ означает μ = точно так
же, как для математического ожидания E всегда справедливо Eξ = S · Eξ.
Следует подчеркнуть, что наиболее ограничительным условием теоремы 4
является (iii). Оно может быть проверено численно, например, с помощью
программного модуля ProKer, а также при построении p-ядер с p, близкими
к 1/2, или при прямом построении KN (1/2). Успешные в этом смысле ре-
зультаты получены для нормального распределения, распределения Коши и
равномерного распределения независимых компонент вектора ξ в двумерном
случае. Однако аппроксимации p-ядер для экспоненциального и логнормаль-
ного распределений оказались пустыми уже при p = 0,53, что свидетельству-
ет о невыполнении условия (iii) теоремы 4 и, как следствие, о пустоте p-ядра
для p = 0,5.
Лемма 1. Для любой точки x0, принадлежащей границе p-ядра Kp, су-
ществует p-доверительное полупространство, для которого эта точка то-
же является граничной.
Доказательство леммы 1 приведено в Приложении.
Для доказательства теоремы 5 понадобится следующая лемма [29].
Лемма 2. Для любых соседних точек cj и ck на единичной сфере, сгене-
рированных алгоритмом из [29], справедливо ||cj - ck|| → 0 при N → ∞.
98
Теорема 5. Пусть функция квантили bp(c) непрерывна, тогда множе-
ство KN(p), построенное с помощью алгоритма, предложенного в [29], схо-
дится в метрике Хаусдорфа к множеству K(p) с ростом N.
Доказательство теоремы 5 приведено в Приложении.
Из теоремы 5 следует, что полиэдральная модель, построенная с помощью
алгоритма, предложенного в [29], сколь угодно точно аппроксимирует p-ядро
как в случае регулярного, так и в случае нерегулярного ядра.
Условие непрерывности функции квантили bp(c) может быть проверено с
помощью известных результатов из [2]. Например, если случайная величи-
на ξ имеет ограниченный носитель, то функция квантили bp(c) непрерывна
согласно [2, теорема 2.5].
3. Задача стохастического программирования
с вероятностными ограничениями
Рассмотрим задачу стохастического программирования с индивидуальны-
ми вероятностными ограничениями
(7)
h(u) max
u∈U
при ограничениях (2), где h(u) - детерминированная вещественная целевая
функция. Как было отмечено в [32], индивидуальные вероятностные ограни-
чения (2) легко сводятся к системе детерминированных неравенств в случае,
когда функции gi(u, ξ) являются сепарабельными по u и ξ. Обобщим этот
результат для случая, когда эти функции линейны по ξ.
Для начала рассмотрим индивидуальные вероятностные ограничения об-
щего вида (2). Они связаны с неравенствами для функций вероятности, со-
ответствующих функциям потерь gi(u, ξ). Пусть η - случайная величина c
функцией распределения Fη(y). В [33] установлено, что неравенство Fη(y) p
выполнено тогда и только тогда, когда [η]p y. Поэтому каждое вероятност-
ное ограничение в (2) может быть представлено в эквивалентной квантильной
форме:
(8)
[gi(u, ξ)]
0.
pi
Рассмотрим случай, когда функции gi(u, ξ) линейны по ξ, т.е. gi(u, ξ) =
= aTi (u)ξ + bi(u) и pi-ядра распределения вектора ξ являются регулярными.
Тогда, применяя теорему 3, выражение (8) можно представить в форме
(9)
bi(u) + max
aTi
(u)x 0.
x∈K(pi)
Отметим, что если функция bi(u) выпукла, а функция aTi(u)x выпукла по
u для любого вектора x ∈ K(pi), то левая часть неравенства (9) является
выпуклой функцией и, следовательно, допустимое множество стратегий u
является выпуклым.
Далее, заменим pi-ядро в выражении (9) его полиэдральной аппроксимаци-
ей KN (pi), где vji ∈ Ji - j-я вершина многогранной аппроксимации p-ядра для
значения p = pi, j = 1, N , и Ji - множество вершин полиэдральной аппрокси-
99
мации p-ядра для значения p = pi. Учитывая линейность максимизируемой
функции в (9), имеем
max
aTi(u)x = maxaTi(u)vji.
x∈KN (pi)
j∈Ji
Вследствие этого можно заключить, что каждое индивидуальное вероятност-
ное ограничение из (2) может быть аппроксимировано системой неравенств
(10)
bi(u) + aTi(u)vji 0, j ∈ Ji.
Такая система определяет выпуклое допустимое множество, если левая часть
каждого из ее неравенств выпукла по u. В частном случае, когда функции
bi(u) и ai(u) линейны по u, это условие выполнено. Рассмотрим это подробнее
в разделе 4.
4. Аппроксимация задачи стохастического программирования
с билинейными вероятностными ограничениями
Рассмотрим специальный случай задачи линейного стохастического про-
граммирования
(11)
dTu → max
u∈U
при детерминированных линейных ограничениях
(12)
U = {u : Au B}
и индивидуальных вероятностных ограничениях вида
{
}
(13)
P
αTiu + βTiξ + uTΘiξ + γi 0
pi
∀i = 1,k,
где u - вектор оптимизируемой стратегии из Rm, d - детерминированный
вектор размерности m, pi (0, 1) - заданная доверительная вероятность, A -
детерминированная матрица размеров k × m, B - заданный вектор размерно-
сти k, ξ - n-мерный случайный вектор, αi - детерминированный m-мерный
вектор, βi - детерминированный n-мерный вектор, Θi - заданная матрица
размеров m × n и γi - действительное число. С учетом результатов раздела 3
аппроксимируем рассматриваемую задачу задачей линейного программиро-
вания. Следуя результатам раздела 3, функции ai(u) и bi(u) можно предста-
вить в линейной форме:
ai(u) = βi + ΘTiu, bi(u) = αTiu + γi.
Учитывая факт, что ограничения (10) могут быть записаны в виде линейных
неравенств
(
)
(14)
αTiu + γi +
βTi + uTΘi
vji 0, j ∈ Ji,
исходная задача стохастического программирования (11), (12) и (13) аппрок-
симируется задачей линейного программирования (11), (12) и (14).
Теорема 6. Пусть U - компактное множество, функции bpi(c) непре-
рывны по c, pi-ядра регулярны и βi + Θiu = 0 ∀i = 1,k,∀u ∈ U. Тогда решение
100
задачи (11), (12) и (14) сходится по значению критерия к решению задачи
(11), (12) и (13).
Доказательство теоремы 6 приведено в Приложении.
5. Пример
Рассматривается оптимизационная задача
(15)
u1 - 2u2 max
u1,u2
при детерминированных ограничениях:
(16)
u1 0, u2 0, u1 + u2
1
и двух вероятностных ограничениях вида:
(17)
P(u1ξ1 - u2ξ2
1) 0,9,
(18)
P(3u1ξ1 - u2ξ2
2) 0,7,
где ξ1, ξ2 — независимые, одинаково равномерно распределенные на [0, 1] слу-
чайные величины.
В соответствии с результатами раздела 3 вероятностные ограничения (25),
(26) можно переписать в эквивалентной квантильной форме:
(19)
[u1ξ1 - u2ξ2]0,9 1,
[3u1ξ1 - u2ξ2]0,7
2.
С использованием теоремы 2 эти неравенства равносильны следующим:
(20)
max
(u1x1 - u2x2) 1,
max
(3u1x1 - u2x2
) 2,
(x1,x2)∈K(0,9)
(x1,x2)∈K(0,7)
где K(p) — p-ядро равномерного распределения на квадрате [0, 1] × [0, 1].
В [29] установлена регулярность p-ядра равномерного распределения. Так-
же в [29] были получены соотношения для нахождения координат точек на
границе p-ядра K(p) в случае двумерного случайного вектора, имеющего рав-
номерное распределение на площади квадрата со сторонами, параллельными
осям координат и симметричными относительно них:
1
(1 - p)
1
(21)
|x2| =
-
ри |x1| p -
п
2
1 - 2|x1|
2
С целью иллюстрации предложенного в статье подхода заменим p-ядра
в (20) их аппроксимациями с помощью многогранников, как описано в раз-
деле 4. В расчетах множества J1 и J2 содержат одинаковое число точек, т.е.
ядра K(0,9) и K(0,7) аппроксимированы полиэдрами, содержащими одина-
ковое число вершин N. В результате ограничения (20) аппроксимируются
системами линейных неравенств:
(22)
u1vj1 - u2vj2 1 ∀j ∈ J1,
3u1vj1 - u2vj2 1 ∀j ∈ J2,
а исходная задача - задачей линейного программирования (23), (24), (22).
Для N = 128 получено следующее решение аппроксимирующей задачи
линейного программирования: u = (0,9522; 0), оптимальное значение целе-
вой функции 0,9522. Время работы программы составляет около 3 секунд.
101
Для N = 16 результаты схожие: u = (0,9524; 0), оптимальное значение целе-
вой функции 0,9524, время счета составляет примерно 0,8 с. В этих расче-
тах функция квантили bp(c) вычислялась точно с использованием указанно-
го выше результата [29]. При замене точного выражения для функции bp(c)
ее выборочной оценкой для объема выборки n = 106 результаты следующие.
Для N = 16 получено решение u = (0,9530; 0), оптимальное значение крите-
рия 0,9530. Для N = 128 : u = (0,9527; 0), значение критерия 0,9527.
В силу того что первое вероятностное ограничение выполнено для всех
допустимых u1 и u2, получается решить поставленную задачу аналитиче-
ски с помощью метода детерминированных эквивалентов [2]. Таким образом,
может быть получено точное решение исходной задачи: u = (20/21, 0), значе-
ние критерия 20/21. Это свидетельствует о работоспособности предложенно-
го подхода.
Заменим значения параметров в ограничениях предыдущей задачи
(23)
u1 - 2u2 max
u1,u2
при детерминированных ограничениях:
(24)
u1 0, u2 0, u1 + u2
1
и двух вероятностных ограничениях вида:
(25)
P(u1ξ1 - u2ξ2
0,5) 0,9,
(26)
P(3u1ξ1 - u2ξ2
2) 0,7,
где ξ1, ξ2 — независимые, одинаково распределенные по равномерному закону
на отрезке [0, 1] случайные величины.
В этом случае не удается построить детерминированный эквивалент, как
это было сделано в предыдущем примере. При N = 128 получено решение
u = (0,5556;0), значение критерия равно соответственно 0,5556. При N = 16
значения критерия и оптимальных параметров совпадают до четвертого
знака.
6. Заключение
Рассмотрена задача стохастического программирования с детерминиро-
ванной целевой функцией и индивидуальными вероятностными ограниче-
ниями, задаваемыми неравенствами с билинейной структурой. С использова-
нием свойств ядра многомерного вероятностного распределения каждое ве-
роятностное ограничение аппроксимировано системой линейных неравенств.
В результате исходная задача сведена к задаче линейного программирования
с большим числом ограничений типа неравенств. Работоспособность предло-
женного метода проиллюстрированна на численном примере.
ПРИЛОЖЕНИЕ
Доказательство теоремы 2. Случай, когда множество Sp пусто,
рассматривается по аналогии с доказательством теоремы 1 из [2]. Если же
Sp не пусто, то указанное доказательство сохраняет силу, так как условие (ii)
102
гарантирует, что каждое замкнутое полупространство, содержащее K(p) и
имеющее граничную гиперплоскость, которая проходит через точку x ∈ Sp,
автоматически является p-доверительным.
Теорема 2 доказана.
Доказательство теоремы
4.
Из (i) следует Pk = μk} = 0,
Pk < μk} = 1/2 и Pk > μk} = 1/2, k = 1,n. Используя (ii), получа-
ем, что для некоторого ε > 0 существует 2n замкнутых полупространств
{x : xk μk + ε} и {x : xk μk - ε}, k = 1, n, которые являются p-довери-
тельными для некоторого p = p(ε) > 1/2. Их пересечение образует куб Cε со
стороной 2ε, для которого справедливо включение μ ∈ Cε.
Из выполнения условия (iii) следует, что K(p) = и выполнено K(p) ⊂ Cε.
Пусть при этом μ ∈ K(p). Тогда по аналогии с Cε можно построить множе-
ство Cε1 , для ε1 < ε такое, что μ ∈ Cε1 и Cε1 ∩ K(p) =. Тогда найдется такое
p1 = p1(ε), для которого справедливо 1/2 < p1 < p, для которого выполне-
но K(p1) ⊂ Cε1 . Но поскольку p1 < p, то должно выполняться K(p1) ⊂ K(p),
но по построению имеем Cε1 ∩ K(p) =. Получаем противоречие. Следова-
тельно, медиана μ является внутренней точкой p-ядра K(p) для любого p ∈
(1/2, 1).
Пусть p-ядро K(p) при p = 1/2 не является регулярным. Тогда существует
полупространство, содержащее это ядро, вероятностная мера которого мень-
ше 1/2. Тогда его замкнутое дополнение имеет меру p1 > 1/2. По определению
p-ядра это дополнение содержит в себе ядро K(p1). Выше было доказано, что
для любого p ∈ (1/2, 1) μ ∈ K(p). Таким образом, получаем противоречие.
Согласно условиям Pk = μk} = 0, Pk < μk} = 1/2 и Pk > μk} = 1/2
p-ядро при p = 1/2 содержит единственную точку μ.
Теорема 4 доказана.
Доказательство леммы 1. Предположим, что точка x0 принадле-
жит границе p-ядра Kp, но не существует p-доверительного полупростран-
ства, для которого она является граничной. В случае когда p-доверительное
полупространство не содержит точку x0, она также не принадлежит и p-ядру.
Пусть точка x0 принадлежит некоторому p-доверительному полупростран-
ству вместе со своей окрестностью, тогда выполнено cTx0 < bp(c) для любого
c : ∥c∥ = 1. Преобразуем данное выражение:
0 < bp(c) - cTx0.
Поскольку настоящее выражение справедливо для любого c : ∥c∥ = 1, то вве-
дем обозначение
h = min (bp(c) - cTx0).
c:∥c∥=1
Минимум достигается, поскольку функция bp(c) - полунепрерывна снизу
согласно [2, лемма 2.11], а функция cTx0 - непрерывна.
Тогда справедливо неравенство
0 < h bp(c) - cTx0.
103
Рассмотрим любую точку x, принадлежащую малой окрестности точки x0.
Из полунепрерывности снизу функции квантили вытекает, что для всех c :
∥c∥ = 1 справедливо неравенство
0 < bp(c) - cTx.
Это можно представить как
(Π.1)
cTx < bp
(c)
∀c : ∥c∥ = 1.
Согласно определению p-ядра (4) и (Π.1) точка x является внутренней точ-
кой p-ядра. Это противоречит тому, что точка x0 выбрана на границе p-ядра.
Лемма 1 доказана.
Доказательство теоремы 5. С учетом того что полиэдральная ап-
проксимация KN (p) является внешней, т.е. K(p) ⊂ KN (p), достаточно прове-
рить, что расстояние от любой граничной точки множества K(p) до границы
множества KN (p) стремится к нулю при N → ∞.
Согласно лемме 1 для любой точки x0, принадлежащей границе ядра K(p),
существует полупространство, заданное неравенством cTx bp(c), для ко-
торого точка x0 является граничной. Тогда в силу непрерывности функции
квантили bp(c) и леммы 2 для любого ε > 0 существуют δ = δ(ε) > 0 и N =
= N(ε) такие, что для любого вектора c : ∥c= 1 существует вектор c, по-
рожденный алгоритмом из [29] и такой, что ∥c - c∥ < ε и |bp(c) - bp(c)| < δ
начиная с номера N.
Расстояние от x0 до гиперплоскости {x : cTx = bp(c)} равно bp(c) - cTx0.
Из неравенств ∥c - c∥ < ε и |bp(c) - bp(c)| < δ вытекает, что это расстояние
стремится к нулю при N → ∞.
Теорема 5 доказана.
Доказательство теоремы 6. Для доказательства необходимо опре-
делить дилатацию множества KN (p) радиуса δ:
(Π.2)
Kδ(pi) =
Bδ(x), где Bδ
(x) = {y : ∥y - x∥ δ}.
x∈K(pi)
Обозначим gi(u, ξ) = αTiu + βTiξ + uTΘiξ + γi. Поскольку, как отмечалось
выше, ограничение (13) равносильно неравенству
(Π.3)
[gi(u, ξ)]pi
0,
то с учетом условия регулярности pi-ядра K(pi) и (9) неравенство (Π.3) может
быть представлено в эквивалентной форме
(Π.4)
max gi
(u, x) 0.
x∈K(pi)
Поскольку функции bpi (c) непрерывны по условию теоремы, то, используя
лемму 5, заключаем, что KN (pi) ----→
K(pi) в метрике Хаусдорфа и ∀δ > 0
N→∞
∃N0 : ∀N N0 K(pi) ⊆ KN (pi) ⊂ Kδ(pi) ∀i = 1,k. При этом Kδ(pi)
−-→
K(pi)
δ→0
в метрике Хаусдорфа. Обозначим Ui(δ) = {u ∈ U : hi(u, δ) 0}, где hi(u, δ) =
= maxx∈Kδ(pi) gi(u,x). Отметим, что множество Ui(δ) имеет вспомогательный
104
характер и введено оно для применения результата из [34]. Так как функ-
ция hi(u, δ) непрерывна по u ∈ U и по δ в точке δ = 0 согласно [34, лемма 1.1
(II)], то для завершения доказательства теоремы достаточно показать [34,
лемма 1.1 (II)], что многозначное отображение Ui(δ) непрерывно в метрике
Хаусдорфа по δ в точке δ = 0. Для этого достаточно проверить, что функ-
ция hi(u, δ) строго монотонна по δ. Для этого покажем, что функция gi(u, x)
достигает по x на множестве Kδ(pi)\K(pi) значения, которое превышает ве-
личину maxx∈K(pi) gi(u, x), при фиксированном u. Градиент функции gi(u, x)
по x не зависит от x и равен
x (gi(u,x)) = βi + Θiu.
По условию теоремы градиент отличен от нуля, что и обеспечивает выполне-
ние доказываемого условия. Таким образом, решение задачи линейного про-
граммирования (11), (12) и (14) сходится по значению критерия к решению
задачи (11), (12) и (13).
Теорема 6 доказана.
СПИСОК ЛИТЕРАТУРЫ
1.
Kibzun A., Kan Yu. Stochastic Programming Problems with Probability and
Quantile Functions. Wiley: Chichester, 1996.
2.
Кибзун А.И., Кан Ю.С. Задачи стохастического программирования с вероят-
ностными критериями. М.: Физматлит, 2009.
3.
Charnes A., Cooper W.W. Chance-constrained Programming // Manag. Sci. 1959.
No. 6. P. 73-79.
4.
Miller B.L., Wagner H.M. Chance Constrained Programming with Joint
Constraints // Oper. Res. 1965. No. 13. P. 930-945.
5.
Lejeune M.A. Pattern-based Modeling and Solution of Probabilistically Constrained
Optimization Problems // Oper. Res. 2012. No. 60. P. 1356-1372.
6.
Lejeune M.A. Pattern Definition of the p-Efficiency Concept // Ann. Oper. Res.
2012. No. 200 P. 23-36.
7.
Kogan A., Lejeune M.A. Threshold Boolean Form for Joint Probabilistic Constraints
with Random Technology Matrix // Math. Program. 2014. No. 147. P. 391-427.
8.
Henrion R. Structural Properties of Linear Probabilistic Constraints
//
Optimization. 2007. V. 56. No. 4. P. 425-440.
9.
Prékopa A. Stochastic Programming. Dordrecht: Kluwer, 1995.
10.
Genz A., Bretz F. Computation of Multivariate Normal and t-Probabilities.
Heidelberg: Springer, 2009.
11.
Barrera J., Homem-de-Mello T., Moreno E., Pagnoncelli B.K., Canessa G. Chance-
Constrained Problems and Rare Events: an Importance Sampling Approach // Math.
Program. Ser. B. 2016. No. 157. P. 153-189.
12.
Guigues V., Juditsky A., Nemirovski A. Non-asymptotic Confidence Bounds for the
Optimal Value of a Stochastic Program // Optim. Methods Softw. 2017. V. 32. No. 5.
P. 1033-1058.
13.
Kleywegt A.J., Shapiro A., Mello-de-Homem T. The Sample Average Approximation
Method for Stochastic Discrete Optimization // SIAM J. Optim. 2002. No. 12.
P. 479-502.
105
14.
Linderoth J., Shapiro A., Wright S. The Empirical Behavior of Sampling Methods
for Stochastic Programming // Ann. Oper. Res. 2006. No. 142. P. 215-241.
15.
Mak W.-K., Morton D.P., Wood R.K. Monte Carlo Bounding Techniques for
Determining Solution Quality in Stochastic Programs // Oper. Res. Lett. 1999.
No. 24. P. 47-56.
16.
Shapiro A. Monte Carlo sampling methods / Handbooks in Operations Research
and Management Science. Ruszczynski A., Shapiro A., eds. V. 10. Elsevier, 2003.
P. 353-425.
17.
Shapiro A., Nemirovski A. On Complexity of Stochastic Programming Problems
/ Continuous Optimization: Current Trends and Applications. Jeyakumar V.,
Rubinov A. Eds. Springer, 2005. P. 111-146.
18.
Verweij B., Ahmed S., Kleywegt A.J., Nemhauser G., Shapiro A. The Sample
Average Approximation Method Applied to Stochastic Routing Problems: A
computational study // Comput. Optim. Appl. 2003. No. 24. P. 289-333.
19.
Bottou L. Large-Scale Machine Learning with Stochastic Gradient Descent // Proc.
COMPSTAT’2010. Springer, 2010. P. 177-186.
20.
Nemirovski A., Juditsky A., Lan G., Shapiro A. Robust Stochastic Approximation
Approach to Stochastic Programming // SIAM J. Optim. 2009. No. 19. P. 1574-1609.
21.
Beraldi P., Ruszczynski A. A Branch and Bound Method for Stochastic Integer
Problems Under Probabilistic Constraints // Optim. Methods Softw. 2002. V. 17.
No. 3. P. 359-382.
22.
Prékopa A., Vizvári D., Badics T. Programming Under Probabilistic Constraint
with Discrete Random Variable / Giannesi F. (Ed.) New Trends in Mathematical
Programming. P. 235-255. Netherlands: Kluwer Acad. Publishers, 1998.
23.
Dentcheva D., Prékopa A., Ruszczynski A. Concavity and Efficient Points of Discrete
Distributions in Probabilistic Programming // Math. Program. 2000. No.
89.
P. 55-77.
24.
Иванов С.В., Кибзун А.И. О сходимости выборочных аппроксимаций задач сто-
хастического программирования с вероятностными критериями // АиТ. 2018.
№ 2. С. 19-35.
Ivanov S.V., Kibzun A.I. On the Convergence of Sample Approximations for
Stochastic Programming Problems with Probabilistic Criteria // Autom. Remote
Control. 2018. V. 79. No. 2. P. 216-228.
25.
Иванов С.В., Наумов А.В. Алгоритм оптимизации квантильного критерия для
полиэдральной функции потерь и дискретного распределения случайных пара-
метров // АиТ. 2012. № 1. С. 116-129.
Ivanov S.V., Naumov A.V. Algorithm to Optimize the Quantile Criterion for the
Polyhedral Function and Discrete Distribution for Random Parameters // Autom.
Remote Control. 2012. V. 73. No. 1. P. 105-117.
26.
Кибзун А.И., Наумов А.В., Норкин В.И. О сведении задачи квантильной оп-
тимизации с дискретным распределением к задаче смешанного целочисленного
программирования // АиТ. 2013. № 6. С. 66-86.
Kibzun A.I., Naumov A.V., Norkin V.I. On Reducing a Quantile Optimization
Problem with Discrete Distribution to a Mixed Integer Programming Problem //
Autom. Remote Control. 2013. V. 74. No. 6. P. 951-967.
27.
Норкин В.И., Кибзун А.И., Наумов А.В. Сведение задачи двухэтапной вероят-
ностной оптимизации с дискретным распределением случайных данных к зада-
чам частично целочисленного программирования // Кибернетика и системный
анализ. 2014. Т. 50. № 5. С. 34-48.
106
28. Наумов А.В., Иванов С.В. Исследование задачи стохастического программиро-
вания с квантильным критерием // АиТ. 2011. № 2. С. 142-158.
Naumov A.V., Ivanov S.V. On Stochastic Linear Programming Problems with the
Quantile Criterion // Autom. Remote Control. 2011. V. 72. No. 2. P. 353-369.
29. Васильева С.Н., Кан Ю.С. Метод решения задачи квантильной оптимизации с
билинейной функцией потерь // АиТ. 2015. № 9. С. 83-101.
Vasil’eva S.N., Kan Yu.S. A Method for Solving Quantile Optimization Problems
with a Bilinear Loss Function // Autom. Remote Control. 2015. V. 76. No. 9.
P. 1582-1597.
30. Васильева С.Н., Кан Ю.С. Метод линеаризации для решения задачи квантиль-
ной оптимизации с функцией потерь, зависящей от вектора малых случайных
параметров // АиТ. 2017. № 7. С. 95-109.
Vasil’eva S.N., Kan Yu.S. Linearization Method for Solving Quantile Optimization
Problems with Loss Function Depending on a Vector of Small Random Parameters //
Autom. Remote Control. 2017. V. 78. No. 7. P. 1251-1263.
31. Васильева С.Н., Кан Ю.С. Алгоритм визуализации плоского ядра вероятност-
ной меры // Информатика и ее применения. 2018. № 12. Вып. 2. С. 60-68.
32. Guigues V., Henrion R. Joint Dynamic Probabilistic Constraints with Projected
Linear Decision Rules // Optim. Methods Softw. 2017. V. 32. No. 5. P. 1006-1032.
33. Rosenblatt-Roth M. Quantiles and Medians // Ann. Math. Stat. 1965. No. 36.
P. 921-925.
34. Федоров В.В. Численные методы максимина. М.: Наука, 1979.
Статья представлена к публикации членом редколлегии А.И. Кибзуном.
Поступила в редакцию 14.05.2018
После доработки 05.03.2019
Принята к публикации 25.04.2019
107