Jump to content

СМА-ES

Стратегия эволюции адаптации ковариационной матрицы (CMA-ES) — это особый вид стратегии численной оптимизации . Стратегии эволюции (ES) — это методы для без производных численной оптимизации нелинейных стохастические или невыпуклых задач непрерывной оптимизации . Они относятся к классу эволюционных алгоритмов и эволюционных вычислений . Эволюционный алгоритм в целом основан на принципе биологической эволюции , а именно на повторяющемся взаимодействии вариаций (посредством рекомбинации и мутации) и отбора: в каждом поколении (итерации) появляются новые особи (кандидаты на решение, обозначаемые как ) генерируются вариациями текущих родительских особей, обычно стохастическим образом. Затем некоторые люди отбираются, чтобы стать родителями в следующем поколении, на основе их приспособленности или целевой функции. значения . Таким образом, люди со все лучшим и лучшим -значения генерируются в ходе последовательности генерации.

В стратегии развития новые возможные решения обычно отбираются в соответствии с многомерным нормальным распределением . . Рекомбинация сводится к выбору нового среднего значения для распределения. Мутация представляет собой добавление случайного вектора, возмущения с нулевым средним значением. Парные зависимости между переменными в распределении представлены ковариационной матрицей . Адаптация ковариационной матрицы (CMA) — это метод обновления ковариационной матрицы этого распределения. Это особенно полезно, если функция является плохо кондиционированным .

Адаптация ковариационной матрицы сводится к изучению модели второго порядка базовой целевой функции , аналогичной аппроксимации обратной матрицы Гессе в квазиньютоновском методе классической оптимизации . В отличие от большинства классических методов, делается меньше предположений относительно базовой целевой функции. Поскольку используется только ранжирование (или, что то же самое, сортировка) возможных решений, метод не требует ни производных, ни даже (явной) целевой функции. Например, рейтинг может быть получен в результате парных соревнований между кандидатами решений в турнире по швейцарской системе .

Принципы [ править ]

Иллюстрация фактического запуска оптимизации с адаптацией ковариационной матрицы для простой двумерной задачи. Сферический ландшафт оптимизации изображен сплошными линиями равного размера. -ценности. Популяция (точки) намного больше, чем необходимо, но ясно показывает, как меняется распределение совокупности (пунктирная линия) в ходе оптимизации. На этой простой задаче население концентрируется на достижении глобального оптимума в течение нескольких поколений.

В алгоритме CMA-ES используются два основных принципа адаптации параметров поискового распределения.

Во-первых, принцип максимального правдоподобия , основанный на идее повышения вероятности успешных вариантов решения и шагов поиска. Среднее значение распределения обновляется таким образом, чтобы вероятность ранее успешных решений-кандидатов была максимальной. Ковариационная матрица распределения обновляется (постепенно), так что вероятность ранее успешных шагов поиска увеличивается. Оба обновления можно интерпретировать как естественный градиентный спуск. Кроме того, как следствие, CMA проводит повторный анализ главных компонентов успешных шагов поиска, сохраняя при этом все главные оси. Алгоритмы оценки распределения и метод перекрестной энтропии основаны на очень похожих идеях, но оценивают (неинкрементно) ковариационную матрицу, максимизируя вероятность успешных точек решения вместо успешных шагов поиска .

Во-вторых, фиксируются два пути временной эволюции среднего распределения стратегии, называемые путями поиска или эволюции. Эти пути содержат важную информацию о корреляции между последовательными шагами. В частности, если последовательные шаги предпринимаются в одном и том же направлении, пути эволюции становятся длинными. Пути эволюции используются двумя способами. Один путь используется для процедуры адаптации ковариационной матрицы вместо отдельных успешных шагов поиска и способствует, возможно, гораздо более быстрому увеличению дисперсии благоприятных направлений. Другой путь используется для дополнительного контроля размера шага. Этот контроль размера шага направлен на то, чтобы последовательные перемещения среднего значения распределения были ортогональными по ожиданию. Управление размером шага эффективно предотвращает преждевременную сходимость , обеспечивая при этом быструю сходимость к оптимальному значению.

Алгоритм [ править ]

Ниже наиболее часто используемый ( μ / μw )-CMA- ES , λ описывается , где на каждом шаге итерации взвешенная комбинация лучших из λ новых решений-кандидатов используется для обновления параметров распределения. Основной цикл состоит из трех основных частей: 1) выборка новых решений, 2) изменение порядка выбранных решений на основе их пригодности, 3) обновление переменных внутреннего состояния на основе переупорядоченных выборок. Псевдокод . алгоритма выглядит следующим образом

set   // number of samples per iteration, at least two, generally > 4
initialize , , , ,   // initialize state variables
while not terminate do  // iterate
    for  in  do  // sample  new solutions and evaluate them
        sample_multivariate_normal(mean, covariance_matrix)
        
     with  // sort solutions
      // we need later  and        
     ← update_m  // move mean to better solutions 
     ← update_ps  // update isotropic evolution path
     ← update_pc  // update anisotropic evolution path
     ← update_C  // update covariance matrix
     ← update_sigma  // update step-size using isotropic path length
return  or 

Порядок пяти назначений обновлений имеет значение: сначала необходимо обновить, и необходимо обновить перед , и должен обновляться в последнюю очередь. Уравнения обновления для пяти переменных состояния указаны ниже.

Даны измерения пространства поиска. и шаг итерации . Пять переменных состояния:

, среднее распределение и текущее любимое решение задачи оптимизации,
, размер шага,
, симметричный и положительно определенный ковариационная матрица с и
, два пути эволюции, первоначально заданные для нулевого вектора.

Итерация начинается с выборки возможные решения из многомерного нормального распределения , то есть для

Вторая строка предполагает интерпретацию как несмещенное возмущение (мутацию) текущего вектора избранного решения. (вектор среднего распределения). Возможные решения оцениваются по целевой функции быть сведено к минимуму. Обозначая -отсортированные возможные решения как

новое среднее значение вычисляется как

где положительные (рекомбинационные) веса сумма до одного. Обычно а веса выбираются так, что . Единственная обратная связь, используемая от целевой функции здесь и далее, — это упорядочивание выборочных решений-кандидатов по индексам .

Размер шага обновляется с использованием совокупной адаптации размера шага (CSA), иногда также называемой контролем длины пути . Путь эволюции (или путь поиска) обновляется первым.

где

это обратный временной горизонт для пути эволюции и больше единицы ( напоминает константу экспоненциального затухания как где это связанный с ним срок службы и период полураспада),
- эффективная масса выбора дисперсии и по определению ,
уникальным симметричным квадратным корнем обратного числа является , и
– параметр демпфирования обычно близок к единице. Для или размер шага остается неизменным.

Размер шага увеличивается тогда и только тогда, когда больше ожидаемого значения

и уменьшается, если оно меньше. По этой причине обновление размера шага имеет тенденцию делать последовательные шаги. -сопряженное , то есть после успешной адаптации . [1]

Наконец, ковариационная матрица обновляется , причем сначала снова обновляется соответствующий путь эволюции.

где обозначает транспонирование и

это обратный временной горизонт для пути эволюции и больше единицы,
и индикаторная функция оценивается как один iff или, другими словами, , что обычно и бывает,
частично компенсирует небольшую потерю дисперсии в случае, если индикатор равен нулю,
- скорость обучения для обновления ковариационной матрицы первого ранга и
это скорость обучения для ранга обновление ковариационной матрицы и не должно превышать .

Обновление ковариационной матрицы тенденцию увеличивать вероятность имеет и для быть отобранным из . На этом этап итерации завершен.

Количество образцов-кандидатов на итерацию, , не определяется априори и может изменяться в широких пределах. Меньшие значения, например , приводят к более локальному поиску. Большие значения, например со значением по умолчанию , сделайте поиск более глобальным. Иногда алгоритм неоднократно перезапускается с увеличением в два раза за каждый перезапуск. [2] Помимо настройки (или возможно вместо этого, если, например, предопределено количеством доступных процессоров), введенные выше параметры не являются специфичными для данной целевой функции и, следовательно, не предназначены для изменения пользователем.

Пример кода в MATLAB/Octave [ править ]

function xmin=purecmaes   % (mu/mu_w, lambda)-CMA-ES
  % --------------------  Initialization --------------------------------  
  % User defined input parameters (need to be edited)
  strfitnessfct = 'frosenbrock';  % name of objective/fitness function
  N = 20;               % number of objective variables/problem dimension
  xmean = rand(N,1);    % objective variables initial point
  sigma = 0.3;          % coordinate wise standard deviation (step size)
  stopfitness = 1e-10;  % stop if fitness < stopfitness (minimization)
  stopeval = 1e3*N^2;   % stop after stopeval number of function evaluations
  
  % Strategy parameter setting: Selection  
  lambda = 4+floor(3*log(N));  % population size, offspring number
  mu = lambda/2;               % number of parents/points for recombination
  weights = log(mu+1/2)-log(1:mu)'; % muXone array for weighted recombination
  mu = floor(mu);        
  weights = weights/sum(weights);     % normalize recombination weights array
  mueff=sum(weights)^2/sum(weights.^2); % variance-effectiveness of sum w_i x_i

  % Strategy parameter setting: Adaptation
  cc = (4+mueff/N) / (N+4 + 2*mueff/N);  % time constant for cumulation for C
  cs = (mueff+2) / (N+mueff+5);  % t-const for cumulation for sigma control
  c1 = 2 / ((N+1.3)^2+mueff);    % learning rate for rank-one update of C
  cmu = min(1-c1, 2 * (mueff-2+1/mueff) / ((N+2)^2+mueff));  % and for rank-mu update
  damps = 1 + 2*max(0, sqrt((mueff-1)/(N+1))-1) + cs; % damping for sigma 
                                                      % usually close to 1
  % Initialize dynamic (internal) strategy parameters and constants
  pc = zeros(N,1); ps = zeros(N,1);   % evolution paths for C and sigma
  B = eye(N,N);                       % B defines the coordinate system
  D = ones(N,1);                      % diagonal D defines the scaling
  C = B * diag(D.^2) * B';            % covariance matrix C
  invsqrtC = B * diag(D.^-1) * B';    % C^-1/2 
  eigeneval = 0;                      % track update of B and D
  chiN=N^0.5*(1-1/(4*N)+1/(21*N^2));  % expectation of 
                                      %   ||N(0,I)|| == norm(randn(N,1)) 
  % -------------------- Generation Loop --------------------------------
  counteval = 0;  % the next 40 lines contain the 20 lines of interesting code 
  while counteval < stopeval
    
      % Generate and evaluate lambda offspring
      for k=1:lambda
          arx(:,k) = xmean + sigma * B * (D .* randn(N,1)); % m + sig * Normal(0,C) 
          arfitness(k) = feval(strfitnessfct, arx(:,k)); % objective function call
          counteval = counteval+1;
      end
    
      % Sort by fitness and compute weighted mean into xmean
      [arfitness, arindex] = sort(arfitness); % minimization
      xold = xmean;
      xmean = arx(:,arindex(1:mu))*weights;   % recombination, new mean value
    
      % Cumulation: Update evolution paths
      ps = (1-cs)*ps ... 
            + sqrt(cs*(2-cs)*mueff) * invsqrtC * (xmean-xold) / sigma; 
      hsig = norm(ps)/sqrt(1-(1-cs)^(2*counteval/lambda))/chiN < 1.4 + 2/(N+1);
      pc = (1-cc)*pc ...
            + hsig * sqrt(cc*(2-cc)*mueff) * (xmean-xold) / sigma;

      % Adapt covariance matrix C
      artmp = (1/sigma) * (arx(:,arindex(1:mu))-repmat(xold,1,mu));
      C = (1-c1-cmu) * C ...                  % regard old matrix  
           + c1 * (pc*pc' ...                 % plus rank one update
                   + (1-hsig) * cc*(2-cc) * C) ... % minor correction if hsig==0
           + cmu * artmp * diag(weights) * artmp'; % plus rank mu update

      % Adapt step size sigma
      sigma = sigma * exp((cs/damps)*(norm(ps)/chiN - 1)); 
    
      % Decomposition of C into B*diag(D.^2)*B' (diagonalization)
      if counteval - eigeneval > lambda/(c1+cmu)/N/10  % to achieve O(N^2)
          eigeneval = counteval;
          C = triu(C) + triu(C,1)'; % enforce symmetry
          [B,D] = eig(C);           % eigen decomposition, B==normalized eigenvectors
          D = sqrt(diag(D));        % D is a vector of standard deviations now
          invsqrtC = B * diag(D.^-1) * B';
      end
    
      % Break, if fitness is good enough or condition exceeds 1e14, better termination methods are advisable 
      if arfitness(1) <= stopfitness || max(D) > 1e7 * min(D)
          break;
      end

  end % while, end generation loop

  xmin = arx(:, arindex(1)); % Return best point of last iteration.
                             % Notice that xmean is expected to be even
                             % better.
end
% ---------------------------------------------------------------  
function f=frosenbrock(x)
    if size(x,1) < 2 error('dimension must be greater one'); end
    f = 100*sum((x(1:end-1).^2 - x(2:end)).^2) + sum((x(1:end-1)-1).^2);
end

Теоретические основы [ править ]

Учитывая параметры распределения — среднее значение, дисперсии и ковариации — нормальное распределение вероятностей для выборки новых решений-кандидатов представляет собой распределение вероятностей максимальной энтропии по , то есть выборочное распределение с минимальным количеством априорной информации, встроенной в распределение. Дополнительные соображения по уравнениям обновления CMA-ES приведены ниже.

Переменная метрика [ править ]

CMA-ES реализует стохастический метод переменной метрики . В весьма частном случае выпукло-квадратичной целевой функции

ковариационная матрица адаптируется к обратной матрице Гессе , с точностью до скалярного множителя и малых случайных флуктуаций. В более общем плане, также о функции , где строго возрастает и, следовательно, сохраняет порядок, ковариационная матрица адаптируется к , с точностью до скалярного множителя и малых случайных флуктуаций. Для соотношения выбора (и, следовательно, численность населения ), выбранные решения дают эмпирическую ковариационную матрицу, отражающую обратный гессиан, даже в стратегиях эволюции без адаптации ковариационной матрицы. Этот результат был доказан для на статической модели, опираясь на квадратичное приближение. [3]

Обновления с максимальной вероятностью [ править ]

Уравнения обновления для среднего и ковариационной матрицы максимизируют правдоподобие , напоминая алгоритм максимизации ожидания . Обновление среднего вектора максимизирует логарифмическое правдоподобие, такое, что

где

обозначает логарифмическую вероятность из многомерного нормального распределения со средним и любая положительно определенная ковариационная матрица . Чтобы увидеть это не зависит от сначала отметим, что это справедливо для любой диагональной матрицы , поскольку покоординатный максимизатор не зависит от масштабного коэффициента. Затем вращение точек данных или выбор недиагональные эквивалентны.

Ранг- обновление ковариационной матрицы, то есть самого правого слагаемого в уравнении обновления , максимизирует логарифмическую вероятность в этом

для (в противном случае сингулярно, но по существу тот же результат справедлив и для ). Здесь, обозначает вероятность из многомерного нормального распределения с нулевым средним и ковариационной матрицей . Поэтому для и , — приведенная выше оценка максимального правдоподобия . см . в разделе «Оценка ковариационных матриц» Подробную информацию о выводе .

градиентный спуск в пространстве выборочных Естественный распределений

Акимото и др. [4] и Глазмахерс и др. [5] независимо обнаружило, что обновление параметров распределения напоминает спуск в направлении выборочного естественного градиента ожидаемого значения целевой функции. (подлежит минимизации), где математическое ожидание берется под выборочное распределение. При настройке параметра и , то есть без контроля размера шага и обновления первого ранга, CMA-ES, таким образом, можно рассматривать как реализацию стратегий естественной эволюции (NES). [4] [5] Естественный не градиент зависит от параметризации распределения. Принимая во внимание параметры θ выборочного распределения p , градиент может быть выражено как

где зависит от вектора параметров . Так называемая функция оценки , , указывает относительную чувствительность p относительно θ , а математическое ожидание берется относительно распределения p . градиент Естественный , соответствующий информационной метрике Фишера (мера информационного расстояния между распределениями вероятностей и кривизной относительной энтропии ), теперь читается как

где Фишера информационная матрица является ожиданием гессиана от −ln p и делает выражение независимым от выбранной параметризации. Объединяя предыдущие равенства, получаем

Приближение Монте-Карло последнего ожидания берет среднее значение по λ выборкам из p

где обозначение сверху используется и поэтому монотонно уменьшаются в .

Оливье и др. [6] наконец нашел строгий вывод для весов, , как они определены в CMA-ES. Веса представляют собой непротиворечивую CDF асимптотически оценку в точках г. порядка статистика , как определено выше, где , составленный с фиксированным монотонно убывающим преобразованием , то есть,

.

Эти веса делают алгоритм нечувствительным к конкретным -ценности. Более кратко, используя CDF оценщик вместо пусть алгоритм зависит только от ранга -ценностей, но не их основного распределения. Это делает алгоритм инвариантным к строго возрастанию -преобразования. Теперь мы определяем

такой, что - плотность многомерного нормального распределения . Тогда у нас есть явное выражение для обратной информационной матрицы Фишера, где фиксировано

и для

и после некоторых вычислений обновления в CMA-ES оказываются такими: [4]

и

где mat образует правильную матрицу из соответствующего подвектора естественного градиента. Это означает, что установка , обновления CMA-ES спускаются в направлении аппроксимации естественного градиента при использовании разных размеров шага (скорость обучения 1 и ) для ортогональных параметров и соответственно. Более поздние версии допускают другую скорость обучения для среднего значения. также. [7] Самая последняя версия CMA-ES также использует другую функцию. для и с отрицательными значениями только для последнего (так называемая активная CMA).

Стационарность или несмещенность [ править ]

Сравнительно легко увидеть, что уравнения обновления CMA-ES удовлетворяют некоторым условиям стационарности, поскольку они по существу несмещены. При нейтральном отборе, где , мы находим это

и при некоторых мягких дополнительных предположениях о начальных условиях

и с дополнительной незначительной поправкой в ​​обновлении ковариационной матрицы для случая, когда индикаторная функция равна нулю, мы находим

Инвариантность [ править ]

Свойства инвариантности подразумевают единообразную производительность для класса целевых функций. Утверждалось, что они являются преимуществом, поскольку позволяют обобщать и предсказывать поведение алгоритма и, следовательно, усиливать значение эмпирических результатов, полученных для отдельных функций. Для CMA-ES установлены следующие свойства инвариантности.

  • Инвариантность относительно сохраняющих порядок преобразований значения целевой функции , в том, что для любого поведение идентично на для всех строго возрастающих . Эту инвариантность легко проверить, поскольку только В алгоритме используется ранжирование, инвариантное относительно выбора .
  • Масштабная инвариантность , то есть для любого поведение не зависит от для целевой функции данный и .
  • Инвариантность относительно вращения пространства поиска в том, что для любого и любой поведение на не зависит от ортогональной матрицы , данный . В более общем плане алгоритм также инвариантен относительно общих линейных преобразований. когда дополнительно исходная ковариационная матрица выбирается как .

Любой серьезный метод оптимизации параметров должен быть трансляционно-инвариантным, но большинство методов не обладают всеми описанными выше свойствами инвариантности. Ярким примером с теми же свойствами инвариантности является метод Нелдера–Мида , где исходный симплекс должен быть выбран соответственно.

Конвергенция [ править ]

Концептуальные соображения, такие как свойство алгоритма масштабной инвариантности, анализ более простых стратегий эволюции и подавляющее количество эмпирических данных, позволяют предположить, что алгоритм быстро сходится на большом классе функций к глобальному оптимуму, обозначаемому как . На некоторых функциях сходимость происходит независимо от начальных условий с вероятностью единица. Для некоторых функций вероятность меньше единицы и обычно зависит от начального значения. и . Эмпирически самая быстрая возможная скорость сходимости в для методов прямого поиска на основе рангов часто можно наблюдать (в зависимости от контекста это называется линейной сходимостью , лог-линейной или экспоненциальной сходимостью). Неформально мы можем написать

для некоторых и более строго

или аналогично,

Это означает, что в среднем расстояние до оптимума уменьшается на каждой итерации в «постоянный» раз, а именно на . Скорость сходимости примерно , данный ненамного больше размера . Даже при оптимальном и , скорость сходимости не может существенно превышать , учитывая указанные выше веса рекомбинации все неотрицательны. Реальные линейные зависимости в и замечательны и в обоих случаях являются лучшими, на которые можно надеяться в этом алгоритме. Однако строгое доказательство сходимости отсутствует.

Интерпретация как преобразование системы координат [ править ]

Использование нетождественной ковариационной матрицы для многомерного нормального распределения в стратегиях эволюции эквивалентно преобразованию системы координат векторов решения: [8] главным образом потому, что уравнение выборки

может быть эквивалентно выражено в «закодированном пространстве» как

Матрица ковариации определяет биективное преобразование (кодирование) для всех векторов решений в пространство, где выборка происходит с единичной матрицей ковариации. Поскольку уравнения обновления в CMA-ES инвариантны относительно преобразований линейной системы координат, CMA-ES можно переписать как процедуру адаптивного кодирования, применяемую к простой стратегии эволюции с единичной ковариационной матрицей. [8] Эта процедура адаптивного кодирования не ограничивается алгоритмами выборки из многомерного нормального распределения (например, стратегии эволюции), но в принципе может применяться к любому итерационному методу поиска.

на практике Производительность

В отличие от большинства других эволюционных алгоритмов , CMA-ES, с точки зрения пользователя, не содержит квазипараметров. Пользователь должен выбрать начальную точку решения, и начальный размер шага, . При желании количество выборок-кандидатов λ (размер популяции) может быть изменено пользователем, чтобы изменить характерное поведение поиска (см. Выше), а условия завершения могут или должны быть скорректированы в соответствии с рассматриваемой проблемой.

CMA-ES оказался эмпирически успешным в сотнях приложений и считается полезным, в частности, для невыпуклых, неразделимых, плохо обусловленных, мультимодальных или зашумленных целевых функций. [9] Одно исследование оптимизации «черного ящика» показало, что он превзошел 31 другой алгоритм оптимизации, особенно хорошо действуя на «сложных функциях» или в пространствах поиска большей размерности. [10]

Размерность пространства поиска обычно колеблется от двух до нескольких сотен. Предполагая сценарий оптимизации «черного ящика», где градиенты недоступны (или бесполезны), а оценки функций являются единственной рассматриваемой стоимостью поиска, метод CMA-ES, вероятно, будет превзойден другими методами в следующих условиях:

В случае с разделяемыми функциями недостаток производительности, вероятно, будет наиболее существенным, поскольку CMA-ES вообще не сможет найти сопоставимые решения. С другой стороны, для неразделимых функций, которые плохо обусловлены или трудноразрешимы или могут быть решены только с помощью более чем При оценке функций CMA-ES чаще всего показывает превосходную производительность.

Вариации и расширения [ править ]

(1+1)-CMA-ES [11] генерирует только одно решение-кандидат на шаг итерации, которое становится новым средним значением распределения, если оно лучше текущего среднего значения. Для (1+1)-CMA-ES является близким вариантом гауссовой адаптации . Некоторые стратегии естественной эволюции являются близкими вариантами CMA-ES с особыми настройками параметров. Стратегии естественной эволюции не используют пути эволюции (это означает, что в условиях CMA-ES ) и они формализуют обновление дисперсий и ковариаций по фактору Холецкого вместо ковариационной матрицы. CMA-ES также был расширен до многокритериальной оптимизации как MO-CMA-ES. [12] Еще одним замечательным расширением стало добавление отрицательного обновления ковариационной матрицы с помощью так называемого активного CMA. [13] Использование дополнительного активного обновления CMA в настоящее время считается вариантом по умолчанию. [7]

См. также [ править ]

Ссылки [ править ]

  1. ^ Хансен, Н. (2006), «Стратегия эволюции CMA: сравнительный обзор», На пути к новым эволюционным вычислениям. Достижения в оценке алгоритмов распределения , Springer, стр. 1769–1776, CiteSeerX   10.1.1.139.7369.
  2. ^ Оже, А.; Н. Хансен (2005). «Стратегия перезапуска эволюции CMA с увеличением численности населения» (PDF) . Конгресс IEEE 2005 г. по эволюционным вычислениям, материалы . IEEE. стр. 1769–1776. Архивировано из оригинала (PDF) 4 марта 2016 г. Проверено 13 июля 2012 г.
  3. ^ Шир, ОМ; А. Иегудаев (2020). «О ковариационно-гессианском отношении в эволюционных стратегиях» . Теоретическая информатика . 801 . Эльзевир: 157–174. arXiv : 1806.03674 . дои : 10.1016/j.tcs.2019.09.002 .
  4. ^ Jump up to: Перейти обратно: а б с Акимото, Ю.; Ю. Нагата; И. Оно; С. Кобаяши (2010). «Двунаправленная связь между стратегиями эволюции CMA и стратегиями естественной эволюции» . Параллельное решение проблем из природы, PPSN XI . Спрингер. стр. 154–163.
  5. ^ Jump up to: Перейти обратно: а б Глазмахерс, Т.; Т. Шауль; Ю. Сунь; Д. Виерстра; Дж. Шмидхубер (2010). «Стратегии экспоненциальной естественной эволюции» (PDF) . Конференция по генетическим и эволюционным вычислениям GECCO . Портленд, Орегон.
  6. ^ Оливье, Ю.; Арнольд, Л.; Оже, А.; Хансен, Н. (2017). «Алгоритмы информационно-геометрической оптимизации: объединяющая картина посредством принципов инвариантности» (PDF) . Журнал исследований машинного обучения . 18 (18): 1-65.
  7. ^ Jump up to: Перейти обратно: а б Хансен, Н. (2016). «Стратегия эволюции CMA: Учебное пособие». arXiv : 1604.00772 [ cs.LG ].
  8. ^ Jump up to: Перейти обратно: а б Хансен, Н. (2008). «Адаптивное кодирование: как сделать инвариант системы координат поиска» . Параллельное решение проблем из природы, PPSN X . Спрингер. стр. 205–214.
  9. ^ «Ссылки на приложения CMA-ES» (PDF) .
  10. ^ Хансен, Николаус (2010). «Сравнение результатов 31 алгоритма по результатам бенчмаркинга оптимизации черного ящика BBOB-2009» (PDF) .
  11. ^ Игель, К.; Т. Сатторп; Н. Хансен (2006). «Вычислительно эффективное обновление ковариационной матрицы и (1+1)-CMA для стратегий эволюции» (PDF) . Материалы конференции по генетическим и эволюционным вычислениям (GECCO) . АКМ Пресс. стр. 453–460.
  12. ^ Игель, К.; Н. Хансен; С. Рот (2007). «Адаптация ковариационной матрицы для многоцелевой оптимизации». Эволюционные вычисления . 15 (1): 1–28. дои : 10.1162/evco.2007.15.1.1 . ПМИД   17388777 . S2CID   7479494 .
  13. ^ Ястребски, Джорджия; Д.В. Арнольд (2006). «Улучшение стратегий эволюции посредством активной адаптации ковариационной матрицы». Всемирный конгресс IEEE по вычислительному интеллекту, 2006 г., материалы . IEEE. стр. 9719–9726. дои : 10.1109/CEC.2006.1688662 .

Библиография [ править ]

  • Хансен Н., Остермайер А. (2001). Полностью дерандомизированная самоадаптация в стратегиях эволюции. Эволюционные вычисления , 9 (2), стр. 159–195. [1]
  • Хансен Н., Мюллер С.Д., Кумутсакос П. (2003). Снижение временной сложности стратегии дерандомизированной эволюции с адаптацией ковариационной матрицы (CMA-ES). Эволюционные вычисления , 11 (1), стр. 1–18. [2]
  • Хансен Н., Керн С. (2004). Оценка стратегии развития CMA на мультимодальных тестовых функциях. В книге Синь Яо и др., редакторы, «Параллельное решение проблем из природы» – PPSN VIII , стр. 282–291, Springer. [3]
  • Игель С., Хансен Н., Рот С. (2007). Адаптация ковариационной матрицы для многокритериальной оптимизации. Эволюционные вычисления , 15 (1), стр. 1–28. [4]

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: f1aa0a12af91b926b5bea88db4721dc6__1719031920
URL1:https://arc.ask3.ru/arc/aa/f1/c6/f1aa0a12af91b926b5bea88db4721dc6.html
Заголовок, (Title) документа по адресу, URL1:
CMA-ES - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)