Стратегия естественной эволюции
Эта статья включает список литературы , связанную литературу или внешние ссылки , но ее источники остаются неясными, поскольку в ней отсутствуют встроенные цитаты . ( Март 2015 г. ) |
Стратегии естественной эволюции ( NES ) — это семейство алгоритмов численной оптимизации для черного ящика задач . Подобно стратегиям эволюции , они итеративно обновляют (непрерывные) параметры поискового распределения , следуя естественному градиенту в сторону более высокой ожидаемой приспособленности.
Метод [ править ]
Общая процедура следующая: параметризованное распределение поиска используется для создания пакета точек поиска, и функция приспособленности оценивается в каждой такой точке. Параметры распределения (включая параметры стратегии ) позволяют алгоритму адаптивно фиксировать (локальную) структуру функции приспособленности. Например, в случае распределения Гаусса оно включает в себя среднее значение и ковариационную матрицу . По выборкам NES оценивает градиент поиска по параметрам в сторону более высокой ожидаемой пригодности. Затем NES выполняет шаг подъема градиента вдоль естественного градиента — метода второго порядка, который, в отличие от простого градиента, перенормирует обновление с учетом неопределенности. Этот шаг имеет решающее значение, поскольку он предотвращает колебания, преждевременную сходимость и нежелательные эффекты, возникающие из-за заданной параметризации. Весь процесс повторяется до тех пор, пока не будет достигнут критерий остановки.
Все члены семейства РЭШ работают по одним и тем же принципам. Они различаются типом распределения вероятностей и используемым методом градиентной аппроксимации . Разные пространства поиска требуют разных распределений поиска; например, в случае низкой размерности может быть очень полезно смоделировать полную ковариационную матрицу. С другой стороны, в больших размерностях более масштабируемой альтернативой является ограничение ковариации только диагональю . Кроме того, многомодальные пространства поиска могут выиграть от распределения с более тяжелым хвостом (например, Коши , в отличие от распределения Гаусса). Последнее различие возникает между распределениями, в которых мы можем аналитически вычислить естественный градиент, и более общими распределениями, в которых нам необходимо оценить его на основе выборок.
Поиск градиентов [ править ]
Позволять обозначаем параметры поискового распределения и функция приспособленности, оцененная в . Затем NES преследует цель максимизировать ожидаемую пригодность при поисковом распределении.
через градиентный подъем . Градиент можно переписать как
то есть ожидаемое значение умножить логарифмические производные на . На практике можно использовать приближение Монте-Карло , основанное на конечном числе образцы
- .
Наконец, параметры поискового распределения можно обновлять итеративно.
подъем градиентный Естественный
Вместо использования простого стохастического градиента для обновлений NES следует естественному градиенту , который, как было показано, обладают многочисленными преимуществами по сравнению с простым ( ванильным ) градиентом, например:
- направление градиента не зависит от параметризации поискового распределения
- Величины обновлений автоматически корректируются в зависимости от неопределенности, что, в свою очередь, ускоряет сближение на плато и хребтах.
Таким образом, обновление для NES
- ,
где – информационная матрица Фишера . Матрицу Фишера иногда можно вычислить точно, в противном случае она оценивается на основе выборок с повторным использованием логарифмических производных. .
Фитнес-шейпинг [ править ]
NES использует ранговое формирование фитнес-формы для визуализации алгоритм более устойчив и инвариантен относительно монотонно возрастающие преобразования фитнес-функции. Для этого приспособленность популяции преобразуется в набор полезности значений . . Позволять обозначаю я й лучший индивидуум. Заменяя приспособленность полезностью, оценка градиента становится
- .
Выбор функции полезности является свободным параметром алгоритма.
Псевдокод [ править ]
input: 1 repeat 2 for do // λ is the population size 3 draw sample 4 evaluate fitness 5 calculate log-derivatives 6 end 7 assign the utilities // based on rank 8 estimate the gradient 9 estimate // or compute it exactly 10 update parameters // η is the learning rate 11 until stopping criterion is met
См. также [ править ]
Библиография [ править ]
- Д. Виерстра, Т. Шауль, Дж. Петерс и Дж. Шмидхубер (2008). Стратегии естественной эволюции . Конгресс IEEE по эволюционным вычислениям (CEC).
- Ю. Сан, Д. Виерстра, Т. Шауль и Дж. Шмидхубер (2009). Стохастический поиск с использованием естественного градиента . Международная конференция по машинному обучению (ICML).
- Т. Гласмахерс, Т. Шауль, Ю. Сан, Д. Виерстра и Дж. Шмидхубер (2010). Стратегии экспоненциальной естественной эволюции . Конференция по генетическим и эволюционным вычислениям (GECCO).
- Т. Шауль, Т. Гласмахерс и Дж. Шмидхубер (2011). Большие размерности и тяжелые хвосты для стратегий естественной эволюции . Конференция по генетическим и эволюционным вычислениям (GECCO).
- Т. Шауль (2012). Стратегии естественной эволюции сходятся в сферных функциях . Конференция по генетическим и эволюционным вычислениям (GECCO).