Jump to content

Лексикографическая максим-минутная оптимизация

Лексикографическая оптимизация максимального порядка (также называемая лексмаксмин или лексимин или лексимакс или лексикографическая оптимизация максимального порядка ) — это разновидность многокритериальной оптимизации . В общем, многокритериальная оптимизация имеет дело с задачами оптимизации, в которых две или более целевые функции подлежат оптимизации одновременно. Оптимизация Lexmaxmin предполагает, что лицо, принимающее решения, хочет, чтобы наименьшее целевое значение было как можно выше; при этом вторая по величине цель должна быть как можно выше; и так далее. Другими словами, лицо, принимающее решения, ранжирует возможные решения в соответствии с лексимным порядком значений их целевой функции.

В качестве примера рассмотрим эгалитарных специалистов по социальному планированию , которые хотят принять решение о такой политике, чтобы полезность самого бедного человека была как можно выше; при этом они хотят максимизировать полезность второго по бедности человека; и так далее. Этот планировщик решает задачу lexmaxmin, где номер целевой функции i — это полезность агента номер i .

Алгоритмы оптимизации lexmaxmin (без использования этого названия) были разработаны для вычисления ядрышка кооперативной игры. [ 1 ] [ 2 ] Раннее применение lexmaxmin было представлено Мелвином Дрешером. [ 3 ] в своей книге по теории игр , в контексте максимального использования ошибок противника в игре с нулевой суммой . Берингер [ 4 ] приводит множество других примеров из теории игр, а также теории принятия решений .

Обозначения

[ редактировать ]

Задача lexmaxmin может быть записана как: где – функции, которые необходимо максимизировать; – вектор переменных решения; и - допустимое множество множество возможных значений .

Сравнение с лексикографической оптимизацией

[ редактировать ]

Оптимизация Lexmaxmin тесно связана с лексикографической оптимизацией . Однако в лексикографической оптимизации существует фиксированный порядок функций, такой что является самым важным, является следующим по важности и так далее. Напротив, в lexmaxmin все цели одинаково важны. Чтобы представить lexmaxmin как частный случай лексикографической оптимизации, обозначим через наименьшее целевое значение в x . Аналогично обозначим через второе по величине целевое значение по x и т. д., так что . Тогда задачу оптимизации lexmaxmin можно записать как следующую задачу лексикографической максимизации:

Уникальность

[ редактировать ]

В общем, задача оптимизации lexmaxmin может иметь более одного оптимального решения. Если и являются двумя оптимальными решениями, то их упорядоченный вектор значений должен быть одинаковым, т. е. для всех , [ 5 ] : Thm.2 то есть наименьшее значение такое же, второе наименьшее значение такое же и так далее. Однако несортированные векторы значений могут быть разными. Например, (1,2,3) и (2,1,3) могут быть оптимальными решениями одной и той же проблемы.

Однако если допустимая область представляет собой выпуклое множество , а цели — вогнутые функции , то векторы значений во всех оптимальных решениях должны быть одинаковыми, поскольку если бы существовало два разных оптимальных решения, их среднее значение было бы другим допустимым решением, в котором целевые функции достигают более высокого значения, что противоречит оптимальности исходных решений. [ 5 ] : Thm.6

Алгоритмы для непрерывных переменных

[ редактировать ]

Алгоритм насыщения для выпуклых задач

[ редактировать ]

Алгоритм насыщения работает, когда допустимое множество является выпуклым , а цели — вогнутыми функциями . Варианты этого алгоритма появляются во многих статьях. Самое раннее появление приписывается Александру Копеловицу. [ 1 ] Элькинд и Пасечник. [ 6 ] Другие варианты появляются в. [ 7 ] : 20–27  [ 8 ] [ 9 ] [ 5 ] : Алг.2 [ 10 ] [ 11 ] [ 12 ] [ 13 ] [ 14 ] [ 15 ]

Алгоритм сохраняет набор целей, которые считаются насыщенными (также называемые блокировкой ). Это означает, что их ценность не может быть повышена без ущерба для менее ценных целей. Остальные цели называются свободными . Изначально все цели бесплатны. В целом алгоритм работает следующим образом:

  • Хотя некоторые цели бесплатны:
    • (P1) Решите следующую однокритериальную задачу, где значение насыщения цели :
    • Если проблема неосуществима или неограниченна, остановитесь и заявите, что решения нет.
    • В противном случае, пусть быть максимальным значением первой задачи.
    • Ищите бесплатные цели, ценность которых не может увеличиться выше без уменьшения какой-либо другой цели ниже . В любом решении lexmaxmin значение любой такой цели должно быть точно . Добавьте все такие цели в набор насыщенных целей, установите для них значение насыщенности и вернитесь к (P1).

Осталось объяснить, как мы можем находить новые насыщенные цели на каждой итерации.

Способ 1: оптимизаторы интерьера . [ 1 ] [ 6 ] Внутренний оптимизатор линейной программы — это оптимальное решение, при котором наименьшее возможное количество ограничений является жестким. Другими словами, это решение в интерьере оптимального лица. Внутренний оптимизатор (P1) можно найти, решив (P1) с использованием метода эллипсоида или метода внутренней точки .

Набор жестких ограничений во внутреннем оптимизаторе уникален. Доказательство . Предположим от противного, что существуют два внутренних оптимизатора, x1 и x2, с разными наборами жестких ограничений. Поскольку допустимое множество выпукло, среднее решение x3 = (x1+x2)/2 также является оптимизатором. Любое ограничение, которое не является жестким ни по x1, ни по x2, не является жестким по x3. Следовательно, количество жестких ограничений в x3 меньше, чем в x1 и x2, что противоречит определению внутреннего оптимизатора.

Следовательно, набор жестких ограничений во внутреннем оптимизаторе соответствует набору свободных целей, которые становятся насыщенными. Используя этот метод, решение лексимина можно вычислить не более чем за n итераций.

Метод 2: перебор всех целей . [ 7 ] Найти хотя бы одну насыщенную цель можно, используя следующий алгоритм.

  • Для каждой свободной цели :
    • (P2) Решите следующую однокритериальную задачу:
    • Если оптимальное значение равно цель j становится насыщенной. , то с этого момента
    • В противном случае оптимальное значение должно быть больше, чем ; цель j пока остается свободной.
  • Конец на

На каждом этапе хотя бы одна свободная цель должна стать насыщенной. Это связано с тем, что, если бы ни одна цель не была насыщена, то среднее значение всех оптимальных решений (P2) было бы допустимым решением, в котором все целевые значения превышают - противоречащее оптимальности решения (П1). Например, предположим , цель 1 не является насыщенной, поскольку существует решение с вектором значений (3,1), а цель 2 не является насыщенной, поскольку существует решение с вектором значений и (1,3). Тогда существует решение с вектором значений не ниже (2,2), но должно было быть не менее 2.

Таким образом, после не более чем n итераций все переменные насыщаются и находится оптимальное для лексиминов решение. На каждой итерации t алгоритм решает не более n - t +1 линейных программ; следовательно, время работы алгоритма не превышает раз превышает время работы решателя LP.

В некоторых случаях время работы алгоритма насыщения можно улучшить. Вместо поиска всех насыщенных целей мы можем выйти из внутреннего цикла после нахождения одной насыщенной цели; алгоритм по-прежнему останавливается не более чем через n итераций и может уменьшить количество линейных программ (P2), которые нам нужно решить. [ 5 ] : Алг.3

Более того, вместо циклического перебора всех целей в поисках насыщенной цели алгоритм может найти насыщенную цель, используя двойственную задачу (P1). В некоторых случаях двойственные переменные задаются как побочный продукт решения (P1), например, когда цели и ограничения линейны, а решателем является симплексный алгоритм . В этом случае (P2) вообще не требуется и время работы алгоритма не превышает раз больше времени работы решателя (P1). [ 5 ] : Алг.4

Все эти варианты работают только для выпуклых задач. Для невыпуклых задач насыщенная цель может отсутствовать, поэтому алгоритм может не остановиться.

Алгоритм упорядоченных результатов для общих задач

[ редактировать ]

Алгоритм упорядоченных результатов работает в произвольных областях (не обязательно выпуклых). Его разработали Огрычак и Сливинский. [ 16 ] а также представлено в контексте телекоммуникационных сетей Огрычаком, Пиоро и Томашевским, [ 5 ] и в контексте проблем с локацией Огрычака. [ 17 ] Алгоритм сводит оптимизацию lexmaxmin к более простой задаче лексикографической оптимизации . Лексикографическую оптимизацию можно выполнить с помощью простого последовательного алгоритма, который решает не более n линейных программ. Сокращение начинается со следующего представления lexmaxmin:

Эту проблему невозможно решить как есть, потому что ( t -е наименьшее значение в ) не является простой функцией x . Задача (L1) эквивалентна следующей задаче, где сумма t наименьших значений в :

Эту проблему можно решить итеративно, используя лексикографическую оптимизацию , но количество ограничений на каждой итерации t равно C( n , t ) — количеству подмножеств размера t . Это растет экспоненциально с n . Можно свести проблему к другой задаче, в которой количество ограничений полиномиально от n .

Для каждого t сумма может быть вычислено как оптимальное значение для следующей задачи с n +1 вспомогательными переменными (неограниченная переменная и неотрицательные переменные для всех j в 1,..., n ) и n дополнительных ограничений: [ 5 ] : Thm.8 [ 18 ] Доказательство . Вычислим значения вспомогательных переменных в оптимальном решении.

  • Для всех j , должно быть не меньше 0 и , и при этом его следует минимизировать, так как в объективе он фигурирует со знаком минус. Поэтому, . Таким образом, цель можно записать так: .
  • Для любого k от 0 до n, если больше, чем наименьшее k целевых значений (т. е. ), то сумма в правой части содержит ровно k положительных элементов: . В этом случае цель можно записать так: . Обратите внимание, что увеличивается с когда k < t и уменьшается с когда к > т . Следовательно, максимальное значение достигается при k = t , т.е. больше, чем наименьшее t объективных значений; в этом случае цель точно равна , как утверждается.

Следовательно, задача (L2) эквивалентна следующей задаче лексикографической максимизации: [ 5 ] : (32) 

Эта задача (L4) имеет дополнительные переменные и дополнительные ограничения. Ее можно решить любым алгоритмом решения лексикографической максимизации , например: последовательным алгоритмом с использованием n линейных программ или лексикографическим симплексным алгоритмом (если цели и ограничения линейны).

Примерные решения по чтению

[ редактировать ]

Одним из преимуществ алгоритма упорядоченных результатов является то, что его можно использовать, даже если решатель одной задачи неточен и возвращает только приблизительные решения. В частности, если решатель одной задачи аппроксимирует оптимальное решение одной задачи с мультипликативным коэффициентом α ∈ (0,1] и аддитивным коэффициентом ϵ ≥ 0, то алгоритм возвращает решение, которое аппроксимирует оптимальное для лексимина решение с мультипликативным коэффициентом α. 2 /(1 − α + α 2 ) и аддитивный коэффициент ϵ/(1 − α + α 2 ). [ 19 ]

Алгоритм упорядоченных значений для общих задач

[ редактировать ]

Алгоритм упорядоченных значений работает в любой области, в которой множество возможных значений целевых функций конечно. Его разработали Огрычак и Сливинский. [ 16 ] Позволять быть набором всех значений, которые могут быть возвращены функциями , такой, что . Учитывая решение x и целое число k из {1,.., r }, определите как количество вхождений значения v r в вектор . Тогда проблему lexmaxmin можно сформулировать как следующую задачу лексикографической минимизации: поскольку мы хотим иметь как можно меньше функций, достигающих наименьшего значения; при этом как можно меньше функций достигают следующего наименьшего значения; и так далее. Огрычак и Сливинский [ 16 ] покажите, как преобразовать эту нелинейную программу в линейную программу со вспомогательными переменными. В своих вычислительных экспериментах алгоритм упорядоченных значений работает намного быстрее, чем алгоритм насыщения и алгоритм упорядоченных результатов.

Алгоритм Берингера для квазивогнутых функций

[ редактировать ]

Берингер [ 4 ] представил последовательный алгоритм оптимизации lexmaxmin [ нужны разъяснения ] когда цели являются квазивыпуклыми функциями , а допустимое множество X является выпуклым множеством .

Средневзвешенное значение

[ редактировать ]

Ягер [ 20 ] представил способ аналитического представления упорядочения лексиминов с помощью оператора упорядоченного взвешенного усреднения . Он предполагает, что все объективные значения являются действительными числами от 0 до 1, а наименьшая разница между любыми двумя возможными значениями — это некоторая константа d < 1 (так что значения с разницей меньше d считаются равными). Вес из установлено приблизительно . Это гарантирует, что максимизация взвешенной суммы эквивалентно лексмаксмин.

Алгоритмы для дискретных переменных

[ редактировать ]

Если набор векторов дискретен , а область определения достаточно мала, то можно использовать одну из функций, представляющих порядок лексиминов, и максимизировать ее с учетом ограничений, используя решатель для задач удовлетворения ограничений .

Но если область определения велика, описанный выше подход становится невозможным из-за большого количества возможных значений, которые может иметь эта функция: , где m — количество различных значений в области определения, а n — количество переменных. [ 21 ]

Бувере и Леметр представляют пять различных алгоритмов для поиска оптимальных по лексимину решений дискретных задач удовлетворения ограничений: [ 21 ]

  1. Ветвь и граница на основе ограничения LEXIMIN — ограничения на два вектора x и y , говорящего, что y больше лексимина, чем x .
  2. Ветвление по насыщенным подмножествам — поиск подмножеств переменных, для которых необходимо зафиксировать минимальное значение, и поиск максимально-минимального значения для остальных переменных.
  3. Использование ограничения SORT — ограничения на два вектора x и y , говорящего, что y содержит те же элементы, что и x, отсортированные в порядке возрастания. Это ограничение можно эффективно вычислить с помощью нескольких алгоритмов. [ 22 ] [ 23 ]
  4. Использование ограничения ATLEAST.
  5. Использование преобразований max-min.

В их экспериментах наиболее эффективным подходом был 4 (ATLEAST), затем 3 (SORT), а затем 1 (LEXIMIN).

Из чеснока [ 24 ] представляет алгоритм вычисления оптимального для лексимина распределения ресурсов.

  1. ^ Перейти обратно: а б с РАСЧЕТ ЯДРА ПРОСТЫХ ИГР И ЯДРА N-ЛИЧНЫХ ИГР (Отчет).
  2. ^ Кольберг, Илон (1 июля 1972 г.). «Ядрышко как решение задачи минимизации» . SIAM Journal по прикладной математике . 23 (1): 34–39. дои : 10.1137/0123004 . ISSN   0036-1399 .
  3. ^ Дрешер, Мелвин (1961). Стратегические игры: теория и приложения .
  4. ^ Перейти обратно: а б Берингер, Ф.А. (1 июня 1977 г.). «Лексикографическое квазивогнутое многокритериальное программирование» . Журнал исследования операций . 21 (3): 103–116. дои : 10.1007/BF01919766 . ISSN   1432-5217 . S2CID   27807594 .
  5. ^ Перейти обратно: а б с д и ж г час Огрычак, В.; Пиоро, М.; Томашевский, А. (2005). «Проектирование телекоммуникационной сети и задача максим-мин оптимизации» . Журнал телекоммуникаций и информационных технологий . 3 : 43–56. ISSN   1509-4553 .
  6. ^ Перейти обратно: а б Элкинд, Эдит; Пасечник, Дмитрий (4 января 2009 г.). Вычисление ядрышка игр с взвешенным голосованием . Общество промышленной и прикладной математики. стр. 327–335. дои : 10.1137/1.9781611973068.37 . hdl : 10356/93815 . ISBN  978-0-89871-680-1 .
  7. ^ Перейти обратно: а б Уилсон, Стивен Дж. (1995). «Справедливое разделение с использованием линейного программирования» (PDF) . Университет штата Айова (неопубликованная рукопись) .
  8. ^ Поттерс, Джос AM; Тийс, Стеф Х. (1 февраля 1992 г.). «Ядрышко матричной игры и другие ядрышки» . Математика исследования операций . 17 (1): 164–174. дои : 10.1287/moor.17.1.164 . hdl : 2066/223732 . ISSN   0364-765X . S2CID   40275405 .
  9. ^ Лусс, Ханан (1 июня 1999 г.). «О проблемах справедливого распределения ресурсов: лексикографический минимаксный подход» . Исследование операций . 47 (3): 361–378. дои : 10.1287/opre.47.3.361 . ISSN   0030-364X .
  10. ^ Нэйс, Дритан; Пиоро, Михал (2008). «Максимальная и минимальная справедливость и ее применение к маршрутизации и балансировке нагрузки в сетях связи: учебное пособие» . Опросы и учебные пособия IEEE по коммуникациям . 10 (4): 5–17. дои : 10.1109/SURV.2008.080403 . ISSN   1553-877X . S2CID   6595144 .
  11. ^ Айрио, Стефан; Азиз, Харис; Караяннис, Иоаннис; Крюгер, Джастин; Ланг, Жером; Петерс, Доминик (10 августа 2019 г.). «Порционирование с использованием порядковых предпочтений: справедливость и эффективность» . Материалы 28-й Международной совместной конференции по искусственному интеллекту . IJCAI'19. Макао, Китай: AAAI Press: 11–17. ISBN  978-0-9992411-4-1 .
  12. ^ Бэй, Сяохуэй; Лу, Синьхан; Суксомпонг, Варут (28 июня 2022 г.). «Правдивый обмен тортами» . Материалы конференции AAAI по искусственному интеллекту . 36 (5): 4809–4817. дои : 10.1609/aaai.v36i5.20408 . ISSN   2374-3468 . S2CID   245117491 .
  13. ^ Огрычак, Влодзимеж (1 августа 1997 г.). «О лексикографическом минимаксном подходе к задачам размещения» . Европейский журнал операционных исследований . 100 (3): 566–585. дои : 10.1016/S0377-2217(96)00154-3 . ISSN   0377-2217 .
  14. ^ Дюбуа, Дидье; Фортемпс, Филипп (1 октября 1999 г.). «Вычисление улучшенных оптимальных решений задач удовлетворения максимальных и минимальных гибких ограничений» . Европейский журнал операционных исследований . 118 (1): 95–126. дои : 10.1016/S0377-2217(98)00307-5 . ISSN   0377-2217 .
  15. ^ Эрготт, Матиас (18 мая 2005 г.). Многокритериальная оптимизация . Springer Science & Business Media. ISBN  978-3-540-21398-7 .
  16. ^ Перейти обратно: а б с Огрычак, Влодзимеж; Сливинский, Томаш (2006). «О прямых методах лексикографической мини-максной оптимизации» . У Гаврилова Марина ; Джерваси, Освальдо; Кумар, Випин; Тан, Си Джей Кеннет; Таниар, Дэвид; Лагана, Энтони; Мун, Ёнгсонг; Чу, Хёнсын (ред.). Вычислительная наука и ее приложения — ICCSA 2006 . Конспекты лекций по информатике. Том. 3982. Берлин, Гейдельберг: Springer. стр. 100-1 802–811. дои : 10.1007/11751595_85 . ISBN  978-3-540-34076-8 .
  17. ^ Огрычак, Влодзимеж (1 августа 1997 г.). «О лексикографическом минимаксном подходе к задачам размещения» . Европейский журнал операционных исследований . 100 (3): 566–585. дои : 10.1016/S0377-2217(96)00154-3 . ISSN   0377-2217 .
  18. ^ Огрычак, Влодзимеж; Тамир, Арье (14 февраля 2003 г.). «Минимизация суммы k крупнейших функций за линейное время» . Письма об обработке информации . 85 (3): 117–122. дои : 10.1016/S0020-0190(02)00370-8 . ISSN   0020-0190 .
  19. ^ Хартман, Иден; хасидим, Авинатан; Ауманн, Йонатан; Сегал-Халеви, Эрел (2023), «Приближение лексимина: от одноцелевой к многоцелевой» , ECAI 2023 , Границы искусственного интеллекта и приложений, IOS Press, стр. 996–1003, arXiv : 2303.12506 , doi : 10.3233/ ФАИА230371 , ISBN  9781643684369 , получено 15 октября 2023 г.
  20. ^ Ягер, Рональд Р. (1 октября 1997 г.). «Об аналитическом представлении упорядочения Лексимина и его применении к гибкому распространению ограничений» . Европейский журнал операционных исследований . 102 (1): 176–192. дои : 10.1016/S0377-2217(96)00217-2 . ISSN   0377-2217 .
  21. ^ Перейти обратно: а б Бувере, Сильвен; Леметр, Мишель (1 февраля 2009 г.). «Вычисление лексимин-оптимальных решений в сетях ограничений» . Искусственный интеллект . 173 (2): 343–364. дои : 10.1016/j.artint.2008.10.010 . ISSN   0004-3702 .
  22. ^ Герналек, Ноэль Блёзен; Кольмерауэр, Ален (1997). «Сужение 2n-блока сортировок за O(N logn)» . В Смолке, Герт (ред.). Принципы и практика программирования с ограничениями-CP97 . Конспекты лекций по информатике. Том. 1330. Берлин, Гейдельберг: Springer. стр. 2–16. дои : 10.1007/BFb0017426 . ISBN  978-3-540-69642-1 .
  23. ^ Мельхорн, Курт; Тиль, Свен (2000). «Быстрые алгоритмы для связанной согласованности сортировки и всеразличных ограничений» . В Дектере, Рина (ред.). Принципы и практика программирования с ограничениями – CP 2000 . Конспекты лекций по информатике. Том. 1894. Берлин, Гейдельберг: Springer. стр. 306–319. дои : 10.1007/3-540-45349-0_23 . ISBN  978-3-540-45349-9 .
  24. ^ Далл'Альо, Марко (1 мая 2001 г.). «Задача оптимизации Дубинса-Спанье в теории справедливого дележа» . Журнал вычислительной и прикладной математики . 130 (1–2): 17–40. Бибкод : 2001JCoAM.130...17D . дои : 10.1016/S0377-0427(99)00393-3 . ISSN   0377-0427 .
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: ba03e665f5168449c5364eaaea99d737__1711283700
URL1:https://arc.ask3.ru/arc/aa/ba/37/ba03e665f5168449c5364eaaea99d737.html
Заголовок, (Title) документа по адресу, URL1:
Lexicographic max-min optimization - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)