Лексикографическая максим-минутная оптимизация
Лексикографическая оптимизация максимального порядка (также называемая лексмаксмин или лексимин или лексимакс или лексикографическая оптимизация максимального порядка ) — это разновидность многокритериальной оптимизации . В общем, многокритериальная оптимизация имеет дело с задачами оптимизации, в которых две или более целевые функции подлежат оптимизации одновременно. Оптимизация Lexmaxmin предполагает, что лицо, принимающее решения, хочет, чтобы наименьшее целевое значение было как можно выше; при этом вторая по величине цель должна быть как можно выше; и так далее. Другими словами, лицо, принимающее решения, ранжирует возможные решения в соответствии с лексимным порядком значений их целевой функции.
В качестве примера рассмотрим эгалитарных специалистов по социальному планированию , которые хотят принять решение о такой политике, чтобы полезность самого бедного человека была как можно выше; при этом они хотят максимизировать полезность второго по бедности человека; и так далее. Этот планировщик решает задачу lexmaxmin, где номер целевой функции i — это полезность агента номер i .
Алгоритмы оптимизации lexmaxmin (без использования этого названия) были разработаны для вычисления ядрышка кооперативной игры. [ 1 ] [ 2 ] Раннее применение lexmaxmin было представлено Мелвином Дрешером. [ 3 ] в своей книге по теории игр , в контексте максимального использования ошибок противника в игре с нулевой суммой . Берингер [ 4 ] приводит множество других примеров из теории игр, а также теории принятия решений .
Обозначения
[ редактировать ]Задача lexmaxmin может быть записана как: где – функции, которые необходимо максимизировать; – вектор переменных решения; и - допустимое множество множество возможных значений .
Сравнение с лексикографической оптимизацией
[ редактировать ]Оптимизация Lexmaxmin тесно связана с лексикографической оптимизацией . Однако в лексикографической оптимизации существует фиксированный порядок функций, такой что является самым важным, является следующим по важности и так далее. Напротив, в lexmaxmin все цели одинаково важны. Чтобы представить lexmaxmin как частный случай лексикографической оптимизации, обозначим через наименьшее целевое значение в x . Аналогично обозначим через второе по величине целевое значение по x и т. д., так что . Тогда задачу оптимизации lexmaxmin можно записать как следующую задачу лексикографической максимизации:
Уникальность
[ редактировать ]В общем, задача оптимизации lexmaxmin может иметь более одного оптимального решения. Если и являются двумя оптимальными решениями, то их упорядоченный вектор значений должен быть одинаковым, т. е. для всех , [ 5 ] : Thm.2 то есть наименьшее значение такое же, второе наименьшее значение такое же и так далее. Однако несортированные векторы значений могут быть разными. Например, (1,2,3) и (2,1,3) могут быть оптимальными решениями одной и той же проблемы.
Однако если допустимая область представляет собой выпуклое множество , а цели — вогнутые функции , то векторы значений во всех оптимальных решениях должны быть одинаковыми, поскольку если бы существовало два разных оптимальных решения, их среднее значение было бы другим допустимым решением, в котором целевые функции достигают более высокого значения, что противоречит оптимальности исходных решений. [ 5 ] : Thm.6
Алгоритмы для непрерывных переменных
[ редактировать ]Алгоритм насыщения для выпуклых задач
[ редактировать ]Алгоритм насыщения работает, когда допустимое множество является выпуклым , а цели — вогнутыми функциями . Варианты этого алгоритма появляются во многих статьях. Самое раннее появление приписывается Александру Копеловицу. [ 1 ] Элькинд и Пасечник. [ 6 ] Другие варианты появляются в. [ 7 ] : 20–27 [ 8 ] [ 9 ] [ 5 ] : Алг.2 [ 10 ] [ 11 ] [ 12 ] [ 13 ] [ 14 ] [ 15 ]
Алгоритм сохраняет набор целей, которые считаются насыщенными (также называемые блокировкой ). Это означает, что их ценность не может быть повышена без ущерба для менее ценных целей. Остальные цели называются свободными . Изначально все цели бесплатны. В целом алгоритм работает следующим образом:
- Хотя некоторые цели бесплатны:
- (P1) Решите следующую однокритериальную задачу, где значение насыщения цели :
- Если проблема неосуществима или неограниченна, остановитесь и заявите, что решения нет.
- В противном случае, пусть быть максимальным значением первой задачи.
- Ищите бесплатные цели, ценность которых не может увеличиться выше без уменьшения какой-либо другой цели ниже . В любом решении lexmaxmin значение любой такой цели должно быть точно . Добавьте все такие цели в набор насыщенных целей, установите для них значение насыщенности и вернитесь к (P1).
Осталось объяснить, как мы можем находить новые насыщенные цели на каждой итерации.
Способ 1: оптимизаторы интерьера . [ 1 ] [ 6 ] Внутренний оптимизатор линейной программы — это оптимальное решение, при котором наименьшее возможное количество ограничений является жестким. Другими словами, это решение в интерьере оптимального лица. Внутренний оптимизатор (P1) можно найти, решив (P1) с использованием метода эллипсоида или метода внутренней точки .
Набор жестких ограничений во внутреннем оптимизаторе уникален. Доказательство . Предположим от противного, что существуют два внутренних оптимизатора, x1 и x2, с разными наборами жестких ограничений. Поскольку допустимое множество выпукло, среднее решение x3 = (x1+x2)/2 также является оптимизатором. Любое ограничение, которое не является жестким ни по x1, ни по x2, не является жестким по x3. Следовательно, количество жестких ограничений в x3 меньше, чем в x1 и x2, что противоречит определению внутреннего оптимизатора.
Следовательно, набор жестких ограничений во внутреннем оптимизаторе соответствует набору свободных целей, которые становятся насыщенными. Используя этот метод, решение лексимина можно вычислить не более чем за n итераций.
Метод 2: перебор всех целей . [ 7 ] Найти хотя бы одну насыщенную цель можно, используя следующий алгоритм.
- Для каждой свободной цели :
- (P2) Решите следующую однокритериальную задачу:
- Если оптимальное значение равно цель j становится насыщенной. , то с этого момента
- В противном случае оптимальное значение должно быть больше, чем ; цель j пока остается свободной.
- Конец на
На каждом этапе хотя бы одна свободная цель должна стать насыщенной. Это связано с тем, что, если бы ни одна цель не была насыщена, то среднее значение всех оптимальных решений (P2) было бы допустимым решением, в котором все целевые значения превышают - противоречащее оптимальности решения (П1). Например, предположим , цель 1 не является насыщенной, поскольку существует решение с вектором значений (3,1), а цель 2 не является насыщенной, поскольку существует решение с вектором значений и (1,3). Тогда существует решение с вектором значений не ниже (2,2), но должно было быть не менее 2.
Таким образом, после не более чем n итераций все переменные насыщаются и находится оптимальное для лексиминов решение. На каждой итерации t алгоритм решает не более n - t +1 линейных программ; следовательно, время работы алгоритма не превышает раз превышает время работы решателя LP.
В некоторых случаях время работы алгоритма насыщения можно улучшить. Вместо поиска всех насыщенных целей мы можем выйти из внутреннего цикла после нахождения одной насыщенной цели; алгоритм по-прежнему останавливается не более чем через n итераций и может уменьшить количество линейных программ (P2), которые нам нужно решить. [ 5 ] : Алг.3
Более того, вместо циклического перебора всех целей в поисках насыщенной цели алгоритм может найти насыщенную цель, используя двойственную задачу (P1). В некоторых случаях двойственные переменные задаются как побочный продукт решения (P1), например, когда цели и ограничения линейны, а решателем является симплексный алгоритм . В этом случае (P2) вообще не требуется и время работы алгоритма не превышает раз больше времени работы решателя (P1). [ 5 ] : Алг.4
Все эти варианты работают только для выпуклых задач. Для невыпуклых задач насыщенная цель может отсутствовать, поэтому алгоритм может не остановиться.
Алгоритм упорядоченных результатов для общих задач
[ редактировать ]Алгоритм упорядоченных результатов работает в произвольных областях (не обязательно выпуклых). Его разработали Огрычак и Сливинский. [ 16 ] а также представлено в контексте телекоммуникационных сетей Огрычаком, Пиоро и Томашевским, [ 5 ] и в контексте проблем с локацией Огрычака. [ 17 ] Алгоритм сводит оптимизацию lexmaxmin к более простой задаче лексикографической оптимизации . Лексикографическую оптимизацию можно выполнить с помощью простого последовательного алгоритма, который решает не более n линейных программ. Сокращение начинается со следующего представления lexmaxmin:
Эту проблему невозможно решить как есть, потому что ( t -е наименьшее значение в ) не является простой функцией x . Задача (L1) эквивалентна следующей задаче, где сумма t наименьших значений в :
Эту проблему можно решить итеративно, используя лексикографическую оптимизацию , но количество ограничений на каждой итерации t равно C( n , t ) — количеству подмножеств размера t . Это растет экспоненциально с n . Можно свести проблему к другой задаче, в которой количество ограничений полиномиально от n .
Для каждого t сумма может быть вычислено как оптимальное значение для следующей задачи с n +1 вспомогательными переменными (неограниченная переменная и неотрицательные переменные для всех j в 1,..., n ) и n дополнительных ограничений: [ 5 ] : Thm.8 [ 18 ] Доказательство . Вычислим значения вспомогательных переменных в оптимальном решении.
- Для всех j , должно быть не меньше 0 и , и при этом его следует минимизировать, так как в объективе он фигурирует со знаком минус. Поэтому, . Таким образом, цель можно записать так: .
- Для любого k от 0 до n, если больше, чем наименьшее k целевых значений (т. е. ), то сумма в правой части содержит ровно k положительных элементов: . В этом случае цель можно записать так: . Обратите внимание, что увеличивается с когда k < t и уменьшается с когда к > т . Следовательно, максимальное значение достигается при k = t , т.е. больше, чем наименьшее t объективных значений; в этом случае цель точно равна , как утверждается.
Следовательно, задача (L2) эквивалентна следующей задаче лексикографической максимизации: [ 5 ] : (32)
Эта задача (L4) имеет дополнительные переменные и дополнительные ограничения. Ее можно решить любым алгоритмом решения лексикографической максимизации , например: последовательным алгоритмом с использованием n линейных программ или лексикографическим симплексным алгоритмом (если цели и ограничения линейны).
Примерные решения по чтению
[ редактировать ]Одним из преимуществ алгоритма упорядоченных результатов является то, что его можно использовать, даже если решатель одной задачи неточен и возвращает только приблизительные решения. В частности, если решатель одной задачи аппроксимирует оптимальное решение одной задачи с мультипликативным коэффициентом α ∈ (0,1] и аддитивным коэффициентом ϵ ≥ 0, то алгоритм возвращает решение, которое аппроксимирует оптимальное для лексимина решение с мультипликативным коэффициентом α. 2 /(1 − α + α 2 ) и аддитивный коэффициент ϵ/(1 − α + α 2 ). [ 19 ]
Алгоритм упорядоченных значений для общих задач
[ редактировать ]Алгоритм упорядоченных значений работает в любой области, в которой множество возможных значений целевых функций конечно. Его разработали Огрычак и Сливинский. [ 16 ] Позволять быть набором всех значений, которые могут быть возвращены функциями , такой, что . Учитывая решение x и целое число k из {1,.., r }, определите как количество вхождений значения v r в вектор . Тогда проблему lexmaxmin можно сформулировать как следующую задачу лексикографической минимизации: поскольку мы хотим иметь как можно меньше функций, достигающих наименьшего значения; при этом как можно меньше функций достигают следующего наименьшего значения; и так далее. Огрычак и Сливинский [ 16 ] покажите, как преобразовать эту нелинейную программу в линейную программу со вспомогательными переменными. В своих вычислительных экспериментах алгоритм упорядоченных значений работает намного быстрее, чем алгоритм насыщения и алгоритм упорядоченных результатов.
Алгоритм Берингера для квазивогнутых функций
[ редактировать ]Берингер [ 4 ] представил последовательный алгоритм оптимизации lexmaxmin [ нужны разъяснения ] когда цели являются квазивыпуклыми функциями , а допустимое множество X является выпуклым множеством .
Средневзвешенное значение
[ редактировать ]Ягер [ 20 ] представил способ аналитического представления упорядочения лексиминов с помощью оператора упорядоченного взвешенного усреднения . Он предполагает, что все объективные значения являются действительными числами от 0 до 1, а наименьшая разница между любыми двумя возможными значениями — это некоторая константа d < 1 (так что значения с разницей меньше d считаются равными). Вес из установлено приблизительно . Это гарантирует, что максимизация взвешенной суммы эквивалентно лексмаксмин.
Алгоритмы для дискретных переменных
[ редактировать ]Если набор векторов дискретен , а область определения достаточно мала, то можно использовать одну из функций, представляющих порядок лексиминов, и максимизировать ее с учетом ограничений, используя решатель для задач удовлетворения ограничений .
Но если область определения велика, описанный выше подход становится невозможным из-за большого количества возможных значений, которые может иметь эта функция: , где m — количество различных значений в области определения, а n — количество переменных. [ 21 ]
Бувере и Леметр представляют пять различных алгоритмов для поиска оптимальных по лексимину решений дискретных задач удовлетворения ограничений: [ 21 ]
- Ветвь и граница на основе ограничения LEXIMIN — ограничения на два вектора x и y , говорящего, что y больше лексимина, чем x .
- Ветвление по насыщенным подмножествам — поиск подмножеств переменных, для которых необходимо зафиксировать минимальное значение, и поиск максимально-минимального значения для остальных переменных.
- Использование ограничения SORT — ограничения на два вектора x и y , говорящего, что y содержит те же элементы, что и x, отсортированные в порядке возрастания. Это ограничение можно эффективно вычислить с помощью нескольких алгоритмов. [ 22 ] [ 23 ]
- Использование ограничения ATLEAST.
- Использование преобразований max-min.
В их экспериментах наиболее эффективным подходом был 4 (ATLEAST), затем 3 (SORT), а затем 1 (LEXIMIN).
Из чеснока [ 24 ] представляет алгоритм вычисления оптимального для лексимина распределения ресурсов.
Ссылки
[ редактировать ]- ^ Перейти обратно: а б с РАСЧЕТ ЯДРА ПРОСТЫХ ИГР И ЯДРА N-ЛИЧНЫХ ИГР (Отчет).
- ^ Кольберг, Илон (1 июля 1972 г.). «Ядрышко как решение задачи минимизации» . SIAM Journal по прикладной математике . 23 (1): 34–39. дои : 10.1137/0123004 . ISSN 0036-1399 .
- ^ Дрешер, Мелвин (1961). Стратегические игры: теория и приложения .
- ^ Перейти обратно: а б Берингер, Ф.А. (1 июня 1977 г.). «Лексикографическое квазивогнутое многокритериальное программирование» . Журнал исследования операций . 21 (3): 103–116. дои : 10.1007/BF01919766 . ISSN 1432-5217 . S2CID 27807594 .
- ^ Перейти обратно: а б с д и ж г час Огрычак, В.; Пиоро, М.; Томашевский, А. (2005). «Проектирование телекоммуникационной сети и задача максим-мин оптимизации» . Журнал телекоммуникаций и информационных технологий . 3 : 43–56. ISSN 1509-4553 .
- ^ Перейти обратно: а б Элкинд, Эдит; Пасечник, Дмитрий (4 января 2009 г.). Вычисление ядрышка игр с взвешенным голосованием . Общество промышленной и прикладной математики. стр. 327–335. дои : 10.1137/1.9781611973068.37 . hdl : 10356/93815 . ISBN 978-0-89871-680-1 .
- ^ Перейти обратно: а б Уилсон, Стивен Дж. (1995). «Справедливое разделение с использованием линейного программирования» (PDF) . Университет штата Айова (неопубликованная рукопись) .
- ^ Поттерс, Джос AM; Тийс, Стеф Х. (1 февраля 1992 г.). «Ядрышко матричной игры и другие ядрышки» . Математика исследования операций . 17 (1): 164–174. дои : 10.1287/moor.17.1.164 . hdl : 2066/223732 . ISSN 0364-765X . S2CID 40275405 .
- ^ Лусс, Ханан (1 июня 1999 г.). «О проблемах справедливого распределения ресурсов: лексикографический минимаксный подход» . Исследование операций . 47 (3): 361–378. дои : 10.1287/opre.47.3.361 . ISSN 0030-364X .
- ^ Нэйс, Дритан; Пиоро, Михал (2008). «Максимальная и минимальная справедливость и ее применение к маршрутизации и балансировке нагрузки в сетях связи: учебное пособие» . Опросы и учебные пособия IEEE по коммуникациям . 10 (4): 5–17. дои : 10.1109/SURV.2008.080403 . ISSN 1553-877X . S2CID 6595144 .
- ^ Айрио, Стефан; Азиз, Харис; Караяннис, Иоаннис; Крюгер, Джастин; Ланг, Жером; Петерс, Доминик (10 августа 2019 г.). «Порционирование с использованием порядковых предпочтений: справедливость и эффективность» . Материалы 28-й Международной совместной конференции по искусственному интеллекту . IJCAI'19. Макао, Китай: AAAI Press: 11–17. ISBN 978-0-9992411-4-1 .
- ^ Бэй, Сяохуэй; Лу, Синьхан; Суксомпонг, Варут (28 июня 2022 г.). «Правдивый обмен тортами» . Материалы конференции AAAI по искусственному интеллекту . 36 (5): 4809–4817. дои : 10.1609/aaai.v36i5.20408 . ISSN 2374-3468 . S2CID 245117491 .
- ^ Огрычак, Влодзимеж (1 августа 1997 г.). «О лексикографическом минимаксном подходе к задачам размещения» . Европейский журнал операционных исследований . 100 (3): 566–585. дои : 10.1016/S0377-2217(96)00154-3 . ISSN 0377-2217 .
- ^ Дюбуа, Дидье; Фортемпс, Филипп (1 октября 1999 г.). «Вычисление улучшенных оптимальных решений задач удовлетворения максимальных и минимальных гибких ограничений» . Европейский журнал операционных исследований . 118 (1): 95–126. дои : 10.1016/S0377-2217(98)00307-5 . ISSN 0377-2217 .
- ^ Эрготт, Матиас (18 мая 2005 г.). Многокритериальная оптимизация . Springer Science & Business Media. ISBN 978-3-540-21398-7 .
- ^ Перейти обратно: а б с Огрычак, Влодзимеж; Сливинский, Томаш (2006). «О прямых методах лексикографической мини-максной оптимизации» . У Гаврилова Марина ; Джерваси, Освальдо; Кумар, Випин; Тан, Си Джей Кеннет; Таниар, Дэвид; Лагана, Энтони; Мун, Ёнгсонг; Чу, Хёнсын (ред.). Вычислительная наука и ее приложения — ICCSA 2006 . Конспекты лекций по информатике. Том. 3982. Берлин, Гейдельберг: Springer. стр. 100-1 802–811. дои : 10.1007/11751595_85 . ISBN 978-3-540-34076-8 .
- ^ Огрычак, Влодзимеж (1 августа 1997 г.). «О лексикографическом минимаксном подходе к задачам размещения» . Европейский журнал операционных исследований . 100 (3): 566–585. дои : 10.1016/S0377-2217(96)00154-3 . ISSN 0377-2217 .
- ^ Огрычак, Влодзимеж; Тамир, Арье (14 февраля 2003 г.). «Минимизация суммы k крупнейших функций за линейное время» . Письма об обработке информации . 85 (3): 117–122. дои : 10.1016/S0020-0190(02)00370-8 . ISSN 0020-0190 .
- ^ Хартман, Иден; хасидим, Авинатан; Ауманн, Йонатан; Сегал-Халеви, Эрел (2023), «Приближение лексимина: от одноцелевой к многоцелевой» , ECAI 2023 , Границы искусственного интеллекта и приложений, IOS Press, стр. 996–1003, arXiv : 2303.12506 , doi : 10.3233/ ФАИА230371 , ISBN 9781643684369 , получено 15 октября 2023 г.
- ^ Ягер, Рональд Р. (1 октября 1997 г.). «Об аналитическом представлении упорядочения Лексимина и его применении к гибкому распространению ограничений» . Европейский журнал операционных исследований . 102 (1): 176–192. дои : 10.1016/S0377-2217(96)00217-2 . ISSN 0377-2217 .
- ^ Перейти обратно: а б Бувере, Сильвен; Леметр, Мишель (1 февраля 2009 г.). «Вычисление лексимин-оптимальных решений в сетях ограничений» . Искусственный интеллект . 173 (2): 343–364. дои : 10.1016/j.artint.2008.10.010 . ISSN 0004-3702 .
- ^ Герналек, Ноэль Блёзен; Кольмерауэр, Ален (1997). «Сужение 2n-блока сортировок за O(N logn)» . В Смолке, Герт (ред.). Принципы и практика программирования с ограничениями-CP97 . Конспекты лекций по информатике. Том. 1330. Берлин, Гейдельберг: Springer. стр. 2–16. дои : 10.1007/BFb0017426 . ISBN 978-3-540-69642-1 .
- ^ Мельхорн, Курт; Тиль, Свен (2000). «Быстрые алгоритмы для связанной согласованности сортировки и всеразличных ограничений» . В Дектере, Рина (ред.). Принципы и практика программирования с ограничениями – CP 2000 . Конспекты лекций по информатике. Том. 1894. Берлин, Гейдельберг: Springer. стр. 306–319. дои : 10.1007/3-540-45349-0_23 . ISBN 978-3-540-45349-9 .
- ^ Далл'Альо, Марко (1 мая 2001 г.). «Задача оптимизации Дубинса-Спанье в теории справедливого дележа» . Журнал вычислительной и прикладной математики . 130 (1–2): 17–40. Бибкод : 2001JCoAM.130...17D . дои : 10.1016/S0377-0427(99)00393-3 . ISSN 0377-0427 .