Оценка алгоритма распределения
Алгоритмы оценки распределения ( EDA ), иногда называемые генетическими алгоритмами вероятностного построения моделей (PMBGA), [1] — это методы стохастической оптимизации , которые направляют поиск оптимума путем построения и выборки явных вероятностных моделей перспективных возможных решений. Оптимизация рассматривается как серия дополнительных обновлений вероятностной модели, начиная с модели, кодирующей неинформативное априорное значение допустимых решений, и заканчивая моделью, генерирующей только глобальные оптимумы. [2] [3] [4]
EDA относятся к классу эволюционных алгоритмов . Основное различие между EDA и большинством традиционных эволюционных алгоритмов заключается в том, что эволюционные алгоритмы генерируют новые возможные решения, используя неявное распределение, определяемое одним или несколькими операторами вариации, тогда как EDA используют явное распределение вероятностей, закодированное байесовской сетью , многомерным нормальным распределением или другим способом. класс модели. Как и другие эволюционные алгоритмы, EDA могут использоваться для решения задач оптимизации, определенных для ряда представлений, от векторов до S-выражений в стиле LISP , а качество возможных решений часто оценивается с использованием одной или нескольких целевых функций.
Общая процедура EDA изложена в следующем:
t := 0 initialize model M(0) to represent uniform distribution over admissible solutions while (termination criteria not met) do P := generate N>0 candidate solutions by sampling M(t) F := evaluate all candidate solutions in P M(t + 1) := adjust_model(P, F, M(t)) t := t + 1
Использование явных вероятностных моделей в оптимизации позволило EDA реально решать задачи оптимизации, которые были заведомо трудными для большинства традиционных эволюционных алгоритмов и традиционных методов оптимизации, таких как проблемы с высоким уровнем эпистаза. [ нужна ссылка ] . Тем не менее, преимущество EDA также заключается в том, что эти алгоритмы предоставляют специалисту по оптимизации ряд вероятностных моделей, которые раскрывают много информации о решаемой проблеме. Эта информация, в свою очередь, может использоваться для разработки операторов окрестности для конкретной задачи для локального поиска, для смещения будущих запусков EDA по аналогичной проблеме или для создания эффективной вычислительной модели проблемы.
Например, если совокупность представлена битовыми строками длиной 4, EDA может представлять совокупность многообещающего решения, используя один вектор из четырех вероятностей (p1, p2, p3, p4), где каждый компонент p определяет вероятность этого позиция равна 1. Используя этот вектор вероятности, можно создать произвольное количество возможных решений.
Оценка алгоритмов распределения (EDA)
[ редактировать ]В этом разделе описаны модели, построенные некоторыми известными EDA различного уровня сложности. Всегда предполагается, что популяция в поколении , оператор выбора , оператор по построению моделей и оператор выборки .
Одномерные факторизации
[ редактировать ]Самые простые EDA предполагают, что переменные решения независимы, т.е. . Следовательно, одномерные EDA полагаются только на одномерную статистику, а многомерные распределения должны быть факторизованы как произведение одномерные распределения вероятностей,
Такие факторизации используются во многих различных EDA, ниже мы опишем некоторые из них.
Алгоритм одномерного предельного распределения (UMDA)
[ редактировать ]УМДА [5] — это простой EDA, использующий оператор для оценки предельных вероятностей из выбранной совокупности . Предполагая содержать элементы, производит вероятности:
Каждый шаг UMDA можно описать следующим образом.
ПБИЛ, [6] неявно представляет совокупность по своей модели, из которой она выбирает новые решения и обновляет модель. В каждом поколении отдельные лица отбираются и выбраны. Такие люди затем используются для обновления модели следующим образом:
где — параметр, определяющий скорость обучения , небольшое значение определяет, что предыдущая модель должны быть лишь слегка изменены новыми выбранными решениями. PBIL можно описать как
Компактный генетический алгоритм (cGA)
[ редактировать ]ЦГА, [7] также полагается на неявные совокупности, определяемые одномерными распределениями. В каждом поколении , два человека отбираются, . Население затем сортируется в порядке убывания пригодности, , с быть лучшим и это худшее решение. CGA оценивает одномерные вероятности следующим образом:
где, — константа, определяющая скорость обучения , обычно равная . CGA можно определить как
Двумерные факторизации
[ редактировать ]Хотя одномерные модели можно эффективно вычислять, во многих случаях они недостаточно репрезентативны, чтобы обеспечить лучшую производительность, чем ГА. Чтобы преодолеть такой недостаток, в сообществе EDA было предложено использование двумерной факторизации, с помощью которой можно было моделировать зависимости между парами переменных. Двумерную факторизацию можно определить следующим образом, где содержит возможную переменную, зависящую от , то есть .
Двумерные и многомерные распределения обычно представляют в виде вероятностных графических моделей (графиков), в которых ребра обозначают статистические зависимости (или условные вероятности), а вершины обозначают переменные. Чтобы изучить структуру PGM на основе обучения связям данных, используется обучение.
Взаимная кластеризация входных данных с максимизацией информации (MIMIC)
[ редактировать ]МИМИЧЕСКИЙ [8] факторизует совместное распределение вероятностей в цепной модели, представляющей последовательные зависимости между переменными. Он находит перестановку переменных решения, , такой, что минимизирует расхождение Кульбака-Лейблера по отношению к истинному распределению вероятностей, т.е. . MIMIC моделирует распространение
Новые решения отбираются от самой левой до самой правой переменной, первая генерируется независимо, а остальные - в соответствии с условными вероятностями. Поскольку предполагаемое распределение необходимо пересчитывать в каждом поколении, MIMIC использует конкретные популяции следующим образом.
Алгоритм двумерного предельного распределения (BMDA)
[ редактировать ]БМДА [9] факторизует совместное распределение вероятностей в двумерных распределениях. Сначала случайно выбранная переменная добавляется в качестве узла в графе, наиболее зависимая от одной из переменных в графе выбирается среди тех, которых еще нет в графе, эта процедура повторяется до тех пор, пока ни одна оставшаяся переменная не будет зависеть от какой-либо переменной в графе. график (проверен по пороговому значению).
Полученная модель представляет собой лес с несколькими деревьями, укорененными в узлах. . Учитывая некорневых переменных, BMDA оценивает факторизованное распределение, в котором корневые переменные могут быть выбраны независимо, тогда как все остальные должны быть обусловлены родительской переменной .
Каждый шаг BMDA определяется следующим образом
Многомерные факторизации
[ редактировать ]Следующим этапом развития EDA стало использование многомерных факторизаций. В этом случае совместное распределение вероятностей обычно разлагается на несколько компонентов ограниченного размера. .
Изучение PGM, кодирующих многомерные распределения, является вычислительно дорогостоящей задачей, поэтому EDA обычно оценивают многомерную статистику на основе двумерной статистики. Такая релаксация позволяет строить PGM за полиномиальное время. ; однако это также ограничивает универсальность таких EDA.
Расширенный компактный генетический алгоритм (eCGA)
[ редактировать ]ЭКГА [10] был одним из первых EDA, применивших многомерную факторизацию, в которой можно моделировать зависимости высокого порядка между переменными решения. Его подход факторизует совместное распределение вероятностей в продукте многомерных маргинальных распределений. Предполагать представляет собой набор подмножеств, в котором каждое представляет собой набор связей, содержащий переменные. Факторизованное совместное распределение вероятностей представлено следующим образом:
ECGA популяризировала термин «обучение по связям» как обозначение процедур, определяющих наборы связей. Его процедура обучения связям опирается на две меры: (1) сложность модели (MC) и (2) сложность сжатой совокупности (CPC). MC количественно определяет размер представления модели с точки зрения количества битов, необходимых для хранения всех предельных вероятностей.
CPC, с другой стороны, количественно оценивает сжатие данных с точки зрения энтропии предельного распределения по всем разделам, где выбранный размер популяции, количество переменных решения в наборе связей и - совместная энтропия переменных в
Обучение связям в ECGA работает следующим образом: (1) вставьте каждую переменную в кластер, (2) вычислите CCC = MC + CPC текущих наборов связей, (3) проверьте увеличение CCC, обеспечиваемое объединением пар кластеров, (4) эффективно объединяет те кластеры с наибольшим улучшением CCC. Эта процедура повторяется до тех пор, пока улучшения CCC становятся невозможными, и создается модель связи. . ECGA работает с конкретными совокупностями, поэтому, используя факторизованное распределение, смоделированное ECGA, его можно описать как
Алгоритм байесовской оптимизации (BOA)
[ редактировать ]БОА [11] [12] [13] использует байесовские сети для моделирования и выборки перспективных решений. Байесовские сети представляют собой ориентированные ациклические графы, узлы которых представляют переменные, а ребра представляют условные вероятности между парами переменных. Значение переменной может быть обусловлено максимум другие переменные, определенные в . BOA строит PGM, кодируя факторизованное совместное распределение, в котором параметры сети, то есть условные вероятности, оцениваются на основе выбранной совокупности с использованием средства оценки максимального правдоподобия.
С другой стороны, структура байесовской сети должна строиться итеративно (обучение на основе связей). Он начинается с сети без ребер и на каждом шаге добавляет ребро, которое лучше улучшает некоторые метрики оценки (например, байесовский информационный критерий (BIC) или байесовскую метрику-Дирихле с эквивалентностью правдоподобия (BDe)). [14] Метрика оценки оценивает структуру сети в соответствии с ее точностью моделирования выбранной совокупности. Из построенной сети BOA выбирает новые многообещающие решения следующим образом: (1) он вычисляет наследственный порядок для каждой переменной, причем каждому узлу предшествуют его родители; (2) каждая переменная условно отбирается к своим родителям. Учитывая такой сценарий, каждый шаг BOA можно определить как
Генетический алгоритм дерева связей (LTGA)
[ редактировать ]ЛТГА [15] отличается от большинства EDA в том смысле, что он не моделирует явно распределение вероятностей, а только модель связей, называемую деревом связей. Связь представляет собой набор наборов связей, не связанных с распределением вероятностей, поэтому нет возможности выбирать новые решения непосредственно из . Модель связей представляет собой дерево связей, хранящееся в виде семейства наборов (FOS).
Процедура обучения дерева связей представляет собой алгоритм иерархической кластеризации , который работает следующим образом. На каждом шаге два ближайших кластера и объединяются, эта процедура повторяется до тех пор, пока не останется только один кластер, каждое поддерево сохраняется как подмножество .
LTGA использует руководить процедурой «оптимального смешивания», которая напоминает оператор рекомбинации, но допускает только улучшающие ходы. Мы обозначаем его как , где обозначение указывает на передачу генетического материала, индексируемого от к .
Algorithm Gene-pool optimal mixing Input: A family of subsets and a population Output: A population . for each in do for each in do choose a random := := if then return
- « ←» означает присвоение . Например, « самый большой ← элемент » означает, что значение самого большого изменяется на значение элемента .
- « return » завершает алгоритм и выводит следующее значение.
LTGA не реализует типичные операторы выбора, вместо этого выбор выполняется во время рекомбинации. Подобные идеи обычно применяются в эвристике локального поиска, и в этом смысле LTGA можно рассматривать как гибридный метод. Таким образом, один шаг LTGA определяется как
Другой
[ редактировать ]- Коллективы вероятностей (ПК) [16] [17]
- Восхождение на холм с обучением (HCwL) [18]
- Оценка многомерного нормального алгоритма (EMNA) [ нужна ссылка ]
- Оценка алгоритма байесовских сетей (EBNA) [ нужна ссылка ]
- Стохастическое восхождение в гору с обучением по векторам нормального распределения (SHCLVND) [19]
- PBIL с реальным кодом [ нужна ссылка ]
- Алгоритм эгоистичного гена (SG) [20]
- Компактная дифференциальная эволюция (cDE) [21] и его варианты [22] [23] [24] [25] [26] [27]
- Оптимизация компактного роя частиц (cPSO) [28]
- Компактная оптимизация бактериального сбора пищи (cBFO) [29]
- Вероятностная поэтапная эволюция программы (PIPE) [30]
- Алгоритм оценки гауссовских сетей (EGNA) [ нужна ссылка ]
- Многомерный нормальный алгоритм оценки с пороговой сходимостью [31]
- Генетический алгоритм матрицы структуры зависимостей (DSMGA) [32] [33]
Связанный
[ редактировать ]Ссылки
[ редактировать ]- ^ Пеликан, Мартин (21 февраля 2005 г.), «Генетические алгоритмы построения вероятностных моделей», Алгоритм иерархической байесовской оптимизации , Исследования в области нечеткости и мягких вычислений, том. 170, Springer Berlin Heidelberg, стр. 13–30, номер документа : 10.1007/978-3-540-32373-0_2 , ISBN. 9783540237747
- ^ Питер Ларраньяга; Джозеф А. Лозано (2002). Оценка алгоритмов распределения — новый инструмент эволюционных вычислений . Бостон, Массачусетс: Springer US. ISBN 978-1-4615-1539-5 .
- ^ Джозеф А. Лозано; Ларраньяга, П.; Инза, И.; Бенгоэчеа, Э. (2006). На пути к новым эволюционным вычислительным достижениям в оценке алгоритмов распределения . Берлин: Шпрингер. ISBN 978-3-540-32494-2 .
- ^ Пеликан, Мартин; Састри, Кумара; Канту-Пас, Эрик (2006). Масштабируемая оптимизация посредством вероятностного моделирования: от алгоритмов к приложениям; с 26 столами . Берлин: Шпрингер. ISBN 978-3540349532 .
- ^ Мюленбайн, Хайнц (1 сентября 1997 г.). «Уравнение реакции на выбор и его использование для прогнозирования» . Эвол. Вычисление . 5 (3): 303–346. дои : 10.1162/evco.1997.5.3.303 . ISSN 1063-6560 . ПМИД 10021762 . S2CID 2593514 .
- ^ Балуджа, Шуммет (1 января 1994 г.). «Популяционное дополнительное обучение: метод интеграции оптимизации функций на основе генетического поиска и конкурентного обучения» . Университет Карнеги-Меллон.
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Харик, гр.; Лобо, ФГ; Гольдберг, Делавэр (1999). «Компактный генетический алгоритм». Транзакции IEEE в эволюционных вычислениях . 3 (4): 287–297. дои : 10.1109/4235.797971 .
- ^ Боне, Джереми С. Де; Исбелл, Чарльз Л.; Виола, Пол (1 января 1996 г.). «MIMIC: поиск оптимума путем оценки плотностей вероятности». Достижения в области нейронных систем обработки информации : 424. CiteSeerX 10.1.1.47.6497 .
- ^ Пеликан, Мартин; Мюленбайн, Хайнц (1 января 1999 г.). «Алгоритм двумерного предельного распределения». Достижения в области мягких вычислений . стр. 100-1 521–535. CiteSeerX 10.1.1.55.1151 . дои : 10.1007/978-1-4471-0819-1_39 . ISBN 978-1-85233-062-0 .
- ^ Харик, Жорж Райф (1997). Изучение связи генов для эффективного решения задач ограниченной сложности с использованием генетических алгоритмов (доктор философии). Мичиганский университет.
- ^ Пеликан, Мартин; Голдберг, Дэвид Э.; Канту-Пас, Эрик (1 января 1999 г.). «BOA: Алгоритм байесовской оптимизации». Морган Кауфманн: 525–532. CiteSeerX 10.1.1.46.8131 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Пеликан, Мартин (2005). Иерархический байесовский алгоритм оптимизации: к новому поколению эволюционных алгоритмов (1-е изд.). Берлин [ua]: Шпрингер. ISBN 978-3-540-23774-7 .
- ^ Вулперт, Дэвид Х.; Раджнараян, Дев (1 января 2013 г.). «Использование машинного обучения для улучшения стохастической оптимизации» . Материалы 17-й конференции AAAI по новейшим разработкам в области искусственного интеллекта . Aaaiws'13–17: 146–148.
- ^ Ларраньяга, Педро; Каршенас, Хосейн; Бьельца, Конча; Сантана, Роберто (21 августа 2012 г.). «Обзор вероятностных графических моделей в эволюционных вычислениях» . Журнал эвристики . 18 (5): 795–819. дои : 10.1007/s10732-012-9208-4 . S2CID 9734434 .
- ^ Тиренс, Дирк (11 сентября 2010 г.). «Генетический алгоритм дерева связей». Параллельное решение проблем из природы, PPSN XI . стр. 264–273. дои : 10.1007/978-3-642-15844-5_27 . ISBN 978-3-642-15843-8 .
- ^ ВОЛПЕРТ, ДЭВИД Х.; ШТРАУС, ЧАРЛИ ЭМ; РАДЖНАРАЯН, ДЕВ (декабрь 2006 г.). «Достижения в распределенной оптимизации с использованием вероятностных коллективов». Достижения в области сложных систем . 09 (4): 383–436. CiteSeerX 10.1.1.154.6395 . дои : 10.1142/S0219525906000884 .
- ^ Пеликан, Мартин; Голдберг, Дэвид Э.; Лобо, Фернандо Г. (2002). «Обзор оптимизации путем построения и использования вероятностных моделей». Вычислительная оптимизация и приложения . 21 (1): 5–20. дои : 10.1023/А:1013500812258 .
- ^ Рудлоф, Стефан; Кеппен, Марио (1997). «Стохастическое восхождение на холм с обучением векторами нормального распределения»: 60–70. CiteSeerX 10.1.1.19.3536 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Рудлоф, Стефан; Кеппен, Марио (1997). «Стохастическое восхождение на холм с обучением векторами нормального распределения»: 60–70. CiteSeerX 10.1.1.19.3536 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Корно, Фульвио; Реорда, Маттео Сонца; Скиллеро, Джованни (27 февраля 1998 г.). Алгоритм эгоистичного гена: новая стратегия эволюционной оптимизации . АКМ. стр. 349–355. дои : 10.1145/330560.330838 . ISBN 978-0897919692 . S2CID 9125252 .
- ^ Мининно, Эрнесто; Нери, Ферранте; Купертино, Франческо; Насо, Дэвид (2011). «Компактная дифференциальная эволюция». Транзакции IEEE в эволюционных вычислениях . 15 (1): 32–54. дои : 10.1109/tevc.2010.2058120 . ISSN 1089-778X . S2CID 20582233 .
- ^ Якка, Джованни; Караффини, Фабио; Нери, Ферранте (2012). «Компактный дифференциальный Evolution Light: высокая производительность, несмотря на ограниченные требования к памяти и скромные вычислительные затраты». Журнал компьютерных наук и технологий . 27 (5): 1056–1076. дои : 10.1007/s11390-012-1284-2 . ISSN 1000-9000 . S2CID 3184035 .
- ^ Якка, Джованни; Нери, Ферранте; Мининно, Эрнесто (2011), «Оппозиционное обучение в компактной дифференциальной эволюции», Приложения эволюционных вычислений , Springer Berlin Heidelberg, стр. 264–273, doi : 10.1007/978-3-642-20525-5_27 , ISBN 9783642205248
- ^ Маллипедди, Раммохан; Якка, Джованни; Сугантан, Поннутурай Нагаратнам; Нери, Ферранте; Мининно, Эрнесто (2011). «Ансамблевые стратегии в компактной дифференциальной эволюции». Конгресс IEEE по эволюционным вычислениям (CEC) , 2011 г. IEEE. стр. 1972–1977. дои : 10.1109/cec.2011.5949857 . ISBN 9781424478347 . S2CID 11781300 .
- ^ Нери, Ферранте; Якка, Джованни; Мининно, Эрнесто (2011). «Компактная дифференциальная эволюция Disturbed Exploitation для ограниченных задач оптимизации памяти». Информационные науки . 181 (12): 2469–2487. дои : 10.1016/j.ins.2011.02.004 . ISSN 0020-0255 .
- ^ Якка, Джованни; Маллипедди, Раммохан; Мининно, Эрнесто; Нери, Ферранте; Сугантан, Паннутурай Нагаратнам (2011). «Глобальный надзор за компактной дифференциальной эволюцией». Симпозиум IEEE по дифференциальной эволюции (SDE) 2011 г. IEEE. стр. 1–8. дои : 10.1109/sde.2011.5952051 . ISBN 9781612840710 . S2CID 8874851 .
- ^ Якка, Джованни; Маллипедди, Раммохан; Мининно, Эрнесто; Нери, Ферранте; Сугантан, Паннутурай Нагаратнам (2011). «Суперподгонка и сокращение численности населения в компактной дифференциальной эволюции». Семинар IEEE 2011 г. по меметическим вычислениям (MC) . IEEE. стр. 1–8. дои : 10.1109/mc.2011.5953633 . ISBN 9781612840659 . S2CID 5692951 .
- ^ Нери, Ферранте; Мининно, Эрнесто; Якка, Джованни (2013). «Оптимизация роя компактных частиц». Информационные науки . 239 : 96–121. дои : 10.1016/j.ins.2013.03.026 . ISSN 0020-0255 .
- ^ Якка, Джованни; Нери, Ферранте; Мининно, Эрнесто (2012), «Оптимизация компактного бактериального поиска пищи», Swarm and Evolutionary Computation , Springer Berlin Heidelberg, стр. 84–92, doi : 10.1007/978-3-642-29353-5_10 , hdl : 11572/196442 , ISBN 9783642293528
- ^ Салустович, ноль; Шмидхубер, ноль (1997). «Вероятностная постепенная эволюция программы» . Эволюционные вычисления . 5 (2): 123–141. дои : 10.1162/evco.1997.5.2.123 . ISSN 1530-9304 . ПМИД 10021756 . S2CID 10759266 .
- ^ Тамайо-Вера, Дания; Болуфе-Ролер, Антонио; Чен, Стивен (2016). «Оценка многомерного нормального алгоритма с пороговой сходимостью». Конгресс IEEE по эволюционным вычислениям (CEC) 2016 г. IEEE. стр. 3425–3432. дои : 10.1109/cec.2016.7744223 . ISBN 9781509006236 . S2CID 33114730 .
- ^ Ю, Тянь-Ли; Голдберг, Дэвид Э.; Ясин, Али; Чен, Ин-Пин (2003), «Разработка генетического алгоритма, вдохновленная организационной теорией: пилотное исследование генетического алгоритма, управляемого матрицей зависимостей», Генетические и эволюционные вычисления - GECCO 2003 , Springer Berlin Heidelberg, стр. 1620–1621, doi : 10.1007/3-540-45110-2_54 , ISBN 9783540406037
- ^ Сюй, Ши-Хуань; Ю, Тянь-Ли (11 июля 2015 г.). Оптимизация путем обнаружения парных связей, постепенного набора связей и ограниченного/обратного микширования: DSMGA-II . АКМ. стр. 519–526. arXiv : 1807.11669 . дои : 10.1145/2739480.2754737 . ISBN 9781450334723 . S2CID 17031156 .