Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Стратегия эволюции адаптации ковариационной матрицы (CMA-ES) - это особый вид стратегии численной оптимизации . Стратегии Evolution (ES) являются стохастическими , производными свободными методами для численной оптимизации в не- линейного или не- выпуклой непрерывной оптимизации задач. Они относятся к классу эволюционных алгоритмов и эволюционных вычислений . Эволюционный алгоритм в целом основан на принципе биологической эволюции, а именно повторяющееся взаимодействие вариаций (посредством рекомбинации и мутации) и отбора: в каждом поколении (итерации) новые индивидуумы (решения-кандидаты, обозначенные как ) генерируются посредством вариации, обычно стохастическим образом, текущих родительских особей. Затем некоторые люди выбираются, чтобы стать родителями в следующем поколении, на основе их приспособленности или значения целевой функции . Таким образом, в последовательности поколений генерируются индивиды с лучшими и лучшими ценностями.

В стратегии эволюции новые возможные решения отбираются в соответствии с многомерным нормальным распределением в . Рекомбинация сводится к выбору нового среднего значения для распределения. Мутация сводится к добавлению случайного вектора, возмущения с нулевым средним. Парные зависимости между переменными в распределении представлены ковариационной матрицей . Адаптация ковариационной матрицы (CMA) - это метод обновления ковариационной матрицы этого распределения. Это особенно полезно , если функция является плохо обусловленной .

Адаптация ковариационной матрицы сводится к изучению модели второго порядка базовой целевой функции, аналогичной аппроксимации обратной матрицы Гессе в квазиньютоновском методе при классической оптимизации . В отличие от большинства классических методов делается меньше предположений о природе целевой функции. Для изучения выборочного распределения используется только ранжирование возможных решений, и метод не требует ни производных, ни даже самих значений функций.

Принципы [ править ]

Иллюстрация фактического прогона оптимизации с адаптацией ковариационной матрицы для простой двумерной задачи. Сферический ландшафт оптимизации изображен сплошными линиями равных значений . Население (точки) намного больше, чем необходимо, но ясно показывает, как распределение популяции (пунктирная линия) изменяется во время оптимизации. На этой простой проблеме население концентрируется на глобальном оптимуме в течение нескольких поколений.

В алгоритме CMA-ES используются два основных принципа адаптации параметров поискового распределения.

Во-первых, принцип максимального правдоподобия , основанный на идее увеличения вероятности успешных возможных решений и шагов поиска. Среднее значение распределения обновляется таким образом, чтобы вероятность ранее успешных решений-кандидатов была максимальной. Ковариационная матрица распределения обновляется (пошагово) таким образом, что вероятность ранее успешных шагов поиска увеличивается. Оба обновления можно интерпретировать как естественный градиентный спуск. Кроме того, как следствие, CMA проводит повторный анализ главных компонентов успешных шагов поиска, сохраняя при этом все главные оси. Оценка алгоритмов распределения иМетод кросс-энтропии основан на очень похожих идеях, но оценивает (без приращения) ковариационную матрицу, максимизируя вероятность успешных точек решения вместо успешных шагов поиска .

Во-вторых, регистрируются два пути временной эволюции среднего распределения стратегии, называемые путями поиска или эволюции. Эти пути содержат важную информацию о корреляции между последовательными шагами. В частности, если последовательные шаги предпринимаются в одном и том же направлении, пути эволюции становятся длинными. Пути эволюции используются двумя способами. Один путь используется для процедуры адаптации матрицы ковариации вместо единичных успешных шагов поиска и способствует, возможно, гораздо более быстрому увеличению дисперсии благоприятных направлений. Другой путь используется для дополнительного контроля размера шага. Это управление размером шага направлено на то, чтобы сделать последовательные движения среднего распределения ортогональными в ожидании. Контроль размера шага эффективно предотвращает преждевременное схождение тем не менее, позволяя быстро достичь оптимума.

Алгоритм [ править ]

Далее описывается наиболее часто используемый ( μ / μ wλ ) -CMA-ES, где на каждом шаге итерации взвешенная комбинация μ лучших из λ новых возможных решений используется для обновления параметров распределения. Основной цикл состоит из трех основных частей: 1) выборка новых решений, 2) переупорядочение выбранных решений на основе их пригодности, 3) обновление переменных внутреннего состояния на основе переупорядоченных выборок. Псевдокод алгоритма выглядит следующим образом .

Множество // число выборок на итерации, по меньшей мере , два, как правило , > 4 инициализации , , , , // Инициализация переменных состояния , пока не прекращает делать // итерацию для в делать // примеры новых решений и оценивать их sample_multivariate_normal (среднее , covariance_matrix ) ← с // сортировать решения // которые нам понадобятся позже и ← update_m // переместить среднее к лучшим решениям ← update_ps // обновить путь изотропной эволюции ← update_pc          // обновить анизотропный путь эволюции ← update_C // обновить ковариационную матрицу ← update_sigma // обновить размер шага с использованием изотропной длины пути return или 

Порядок пяти заданий обновления актуальна: необходимо обновить первым, и должны обновляться до , и должны быть обновлены последними. Далее указаны уравнения обновления для пяти переменных состояния.

Даны размер пространства поиска и шаг итерации . Пять переменных состояния:

, среднее значение распределения и текущее любимое решение задачи оптимизации,
, размер шага,
, Симметричная и положительно определенная матрица ковариации с и
, два пути эволюции, изначально настроенные на нулевой вектор.

Итерация начинается с выборки возможных решений из многомерного нормального распределения , т. Е. Для

Вторая строка предлагает интерпретацию как возмущение (мутацию) текущего избранного вектора решения (вектора среднего распределения). Возможные решения оцениваются по целевой функции, которую необходимо минимизировать. Обозначая -сортированные возможные решения как

новое среднее значение вычисляется как

где сумма положительных (рекомбинационных) весов равна единице. Обычно и веса выбираются такими, чтобы . Единственная обратная связь, используемая от целевой функции здесь и далее, - это упорядочение выбранных возможных решений по индексам .

Размер шага обновляется с использованием кумулятивной адаптации размера шага (CSA), иногда также обозначаемой как управление длиной пути . Сначала обновляется путь эволюции (или путь поиска) .

куда

является обратным временным горизонтом для пути эволюции и больше единицы ( напоминает экспоненциальную константу затухания, где - соответствующее время жизни и период полураспада),
масса дисперсии эффективного отбора и по определению ,
является единственным симметричная корень квадратный из обратной части , и
- параметр затухания, обычно близкий к единице. Для или размер шага остается неизменным.

Размер шага увеличивается тогда и только тогда, когда он больше ожидаемого значения.

и уменьшается, если меньше. По этой причине обновление размера шага имеет тенденцию к тому, чтобы последовательные шаги были -сопряженными после того, как адаптация была успешной . [1] C k − 1 {\displaystyle C_{k}^{-1}}

Наконец, обновляется ковариационная матрица , причем сначала обновляется соответствующий путь эволюции.

где обозначает транспонирование и

- обратный временной горизонт для пути эволюции и больше единицы,
а индикаторная функция оценивается как одно тогда и только тогда, или, другими словами, как обычно,
частично компенсирует небольшую потерю дисперсии при нулевом показателе,
скорость обучения для обновления ранга один ковариационной матрицы и
скорость обучения для обновления ранга ковариационной матрицы, не должна превышать .

Ковариационная матрица обновления приводит к увеличению вероятности для и должны быть взяты пробы из . На этом этап итерации завершен.

Количество выборок-кандидатов на итерацию,, не определяется априори и может варьироваться в широких пределах. Например , меньшие значения приводят к более локальному поиску. Большие значения, например, со значением по умолчанию , делают поиск более глобальным. Иногда алгоритм многократно перезапускается с увеличением в два раза при каждом перезапуске. [2] Помимо настройки (или, возможно, вместо этого, если, например, это предопределено количеством доступных процессоров), введенные выше параметры не являются специфическими для данной целевой функции и, следовательно, не предназначены для изменения пользователем.

Пример кода в MATLAB / Octave [ править ]

функция  xmin = purecmaes% ( mu / mu_w, lambda ) - CMA - ES % -------------------- Инициализация ---------------------------- ----  % Определяемые пользователем входные параметры (необходимо отредактировать) strfitnessfct = 'frosenbrock' ; % название целевой / фитнес-функции    N = 20 ; % количество объективных переменных / размер проблемы    xmean = rand ( N , 1 ); % объективных переменных начальная точка    сигма = 0,3 ; % стандартное отклонение по координатам (размер шага)    stopfitness = 1e-10 ; % stop, если фитнес <stopfitness (минимизация)    Stopeval = 1e3 * N ^ 2 ; % остановки после остановки количество оценок функции     % Настройка параметра стратегии: Выбор  лямбда = 4 + этаж ( 3 * лог ( N )); % численности популяции, количество потомков    mu = лямбда / 2 ; % количество родителей / точек для рекомбинации    вес = лог ( мю + 1 / 2 ) - журнал ( 1 : му ) ' ; % muXone массив для взвешенной рекомбинации    mu = пол ( му ); веса = веса / сумма ( веса ); % нормализовать массив рекомбинационных весов        mueff = сумма ( веса ) ^ 2 / сумма ( веса . ^ 2 ); % дисперсия-эффективности суммы w_i x_i  % Настройка параметров стратегии: Адаптация cc = ( 4 + mueff / N ) / ( N + 4 + 2 * mueff / N ); % постоянной времени для накопления для C        cs = ( mueff + 2 ) / ( N + mueff + 5 ); % t-const для кумуляции для сигма-контроля      c1 = 2 / (( N + 1.3 ) ^ 2 + mueff ); % скорости обучения для первого ранга обновления C      cmu = min ( 1 - c1 , 2 * ( mueff - 2 + 1 / mueff ) / (( N + 2 ) ^ 2 + mueff )); % и для обновления ранг-мю         damps = 1 + 2 * max ( 0 , sqrt (( mueff - 1 ) / ( N + 1 )) - 1 ) + cs ; % демпфирования для сигмы         % обычно близко к 1 % Инициализировать динамические (внутренние) параметры и константы стратегии pc = нули ( N , 1 ); ps = нули ( N , 1 ); % путей эволюции для C и сигмы       B = глаз ( N , N ); % B определяет систему координат    D = единицы ( N , 1 ); % диагонали D определяет масштаб    C = B * диаг ( D. ^ 2 ) * B ' ; % ковариационной матрицы C        invsqrtC = B * diag ( D. ^ - 1 ) * B ' ; % C ^ -1 / 2        eigeneval = 0 ; % отслеживать обновление B и D    Chin = Н ^ 0,5 * ( 1 - 1 / ( 4 * Н ) + 1 / ( 21 * N ^ 2 )); % ожидание  % || N (0, I) || == норма (randn (N, 1)) % -------------------- Цикл генерации --------------------------- ----- счетчик = 0 ; % следующие 40 строк содержат 20 строк интересного кода    в то время как графство < стопевал     % Создание и оценка потомства лямбда для k = 1 : лямбда  arx (:, k ) = xmean + sigma * B * ( D. * randn ( N , 1 )); % m + sig * Нормальный (0, C)            arfitness ( k ) = feval ( strfitnessfct , arx (:, k )); % вызов целевой функции     счетчик = счет + 1 ;   конец  % Сортировать по пригодности и вычислять средневзвешенное значение в xmean [ arfitness , arindex ] = сортировка ( arfitness ); % минимизация     xold = xmean ;   xmean = arx (:, arindex ( 1 : mu )) * веса ; % рекомбинации, новое среднее значение     % Кумуляции: пути эволюции обновлений пс = ( 1 - cs ) * пс ...     + sqrt ( cs * ( 2 - cs ) * mueff ) * invsqrtC * ( xmean - xold ) / сигма ; hsig = norm ( ps ) / sqrt ( 1 - ( 1 - cs ) ^ ( 2 * count / lambda )) / chiN < 1,4 + 2 / ( N               + 1 ); pc = ( 1 - cc ) * шт ...    + hsig * sqrt ( cc * ( 2 - cc ) * mueff ) * ( xmean - xold ) / сигма ;        % Адаптировать ковариационную матрицу C artmp = ( 1 / sigma ) * ( arx (:, arindex ( 1 : mu )) - repmat ( xold , 1 , mu ));     C = ( 1 - c1 - cmu ) * C ...  % относительно старой матрицы       + c1 * ( pc * pc ' ...  % плюс обновление первого ранга     + ( 1 - hsig ) * cc * ( 2 - cc ) * C ) ...  % незначительная поправка, если hsig == 0       + cmu * artmp * diag ( веса ) * artmp ' ; % плюс обновление рейтинга mu         % Адаптировать сигму размера шага сигма = сигма * ехр (( cs / damps ) * ( norm ( ps ) / chiN - 1 )); % Разложение C на B * diag (D. ^ 2) * B '(диагонализация)          если count - eigeneval > lambda / ( c1 + cmu ) / N / 10 % для достижения O (N ^ 2)       eigeneval = counteval ;   С = триу ( С ) + триу ( С , 1 ) ' ; % обеспечить симметрию      [ B , D ] = eig ( C ); % собственное разложение, B == нормализованные собственные векторы    D = sqrt ( diag ( D )); % D - теперь вектор стандартных отклонений    invsqrtC = B * diag ( D. ^ - 1 ) * B ' ;       конец  % Перерыв, если физическая подготовка достаточно хорошая или состояние превышает 1e14, рекомендуются более эффективные методы завершения  если arfitness ( 1 ) <= stopfitness || макс ( D ) > 1e7 * мин ( D )          перерыв ; конец конец % while, конец цикла генерации  xmin = arx (:, arindex ( 1 )); % Возвращает лучшую точку последней итерации.     % Обратите внимание, что ожидается, что xmean будет четным % лучше.конец% ------------------------------------------------- -------------- функция  f = frosenbrock ( x ) if size ( x , 1 ) < 2 error ( «размер должен быть больше единицы» ); конец      f = 100 * сумма (( x ( 1 : конец - 1 ) . ^ 2 - x ( 2 : конец )) . ^ 2 ) + sum (( x ( 1 : конец - 1 ) - 1 ) . ^ 2 );      конец

Теоретические основы [ править ]

Учитывая параметры среднеквадратичных распределения, дисперсия и ковариация- нормальное распределение вероятностей для отбора новых решений - кандидатов является распределение максимальной вероятности энтропии над , то есть распределением выборки с минимальным количеством априорной информации , встроенной в дистрибутив. Дополнительные соображения по уравнениям обновления CMA-ES приведены ниже.

Переменная метрика [ править ]

CMA-ES реализует метод стохастической переменной-метрики . В самом частном случае выпукло-квадратичной целевой функции

ковариационная матрица адаптируется к обратной величине матрицы Гесса , до скалярного множителя и малых случайных флуктуаций. В более общем смысле, также для функции , где строго возрастает и, следовательно, сохраняется порядок и является выпукло-квадратичной, ковариационная матрица адаптируется к , вплоть до скалярного множителя, и небольшим случайным флуктуациям. Обратите внимание, что обобщенная способность эволюционных стратегий адаптировать ковариационную матрицу, отражающую обратный гессиан, была доказана для статической модели, основанной на квадратичной аппроксимации. [3]

Обновления с максимальной вероятностью [ править ]

Уравнения обновления для среднего и ковариационной матрицы максимизируют вероятность , напоминая алгоритм максимизации ожидания . Обновление среднего вектора максимизирует логарифмическое правдоподобие, так что

куда

обозначает логарифмическую вероятность многомерного нормального распределения со средним значением и любой положительно определенной ковариационной матрицей . Чтобы увидеть, что это не зависит от того, сначала замечание, что это так для любой диагональной матрицы , потому что покоординатный максимизатор не зависит от коэффициента масштабирования. Тогда поворот точек данных или выбор недиагонали эквивалентны.

Обновление ранга ковариационной матрицы, то есть самого правого слагаемого в уравнении обновления , максимизирует логарифмическую вероятность в этом

для (в противном случае сингулярно, но по существу тот же результат верен для ). Здесь обозначает вероятность многомерного нормального распределения с нулевым средним и ковариационной матрицей . Таким образом, для и , является выше максимального правдоподобия оценки. См. Оценку ковариационных матриц для получения подробной информации о выводе.

Естественный градиентный спуск в пространстве выборочных распределений [ править ]

Акимото и др. [4] и Glasmachers et al. [5] независимо друг от друга обнаружили, что обновление параметров распределения похоже на снижение в направлении выбранного естественного градиента ожидаемого значения целевой функции (которое должно быть минимизировано), где математическое ожидание берется под выборочное распределение. Таким образом, с установкой параметров и , то есть без управления размером шага и обновления ранга один, CMA-ES можно рассматривать как реализацию Стратегий естественного развития (NES). [4] [5] естественный градиентне зависит от параметризации распределения. Взятый относительно параметров θ выборочного распределения p , градиент может быть выражен как

где зависит от вектора параметров . Так называемая оценка функции , указывает на относительную чувствительность р WRT & thetas , и ожидание берется по распределению р . Естественный градиент от , с соблюдением информационной метрикой Фишера (информационная мера расстояния между вероятностными распределениями и кривизной относительной энтропии ), теперь читает

где информация Фишера матрица является ожидание гессианом из -ln р и оказывает выражение не зависящее от выбранной параметризации. Комбинируя предыдущие равенства, получаем

Аппроксимация последнего математического ожидания методом Монте-Карло берет среднее по λ выборкам из p

где использованы обозначения сверху и поэтому монотонно убывают по .

Ollivier et al. [6] наконец нашел строгий вывод для более устойчивых весов, как они определены в CMA-ES (веса часто равны нулю при i > μ ). Они сформулированы в виде последовательной оценки для ВПРА из в точке , в составе с фиксированным однообразно уменьшился преобразование , то есть,

Это делает алгоритм нечувствительным к конкретным значениям . Если говорить более кратко, то использование оценщика CDF вместо самого себя позволяет алгоритму зависеть только от ранжирования -значений, но не от их основного распределения. Это делает алгоритм инвариантным к монотонным -преобразованиям. Позволять

такова плотность многомерного нормального распределения . Тогда у нас есть явное выражение для обратной информационной матрицы Фишера, где фиксировано

и для

и, после некоторых вычислений, обновления в CMA-ES выглядят как [4]

и

где mat формирует соответствующую матрицу из соответствующего субвектора естественного градиента. Это означает, что при настройке обновления CMA-ES спускаются в направлении аппроксимации естественного градиента с использованием разных размеров шага (скорости обучения 1 и ) для ортогональных параметров и соответственно. Самая последняя версия CMA-ES также использует другую функцию для последнего и с отрицательными значениями только для последнего (так называемый активный CMA).

Стационарность или беспристрастность [ править ]

Сравнительно легко увидеть, что обновляемые уравнения CMA-ES удовлетворяют некоторым условиям стационарности в том смысле, что они по существу несмещены. При нейтральном выборе, где мы находим, что

и при некоторых мягких дополнительных предположениях на начальные условия

и с дополнительной незначительной поправкой в ​​обновлении ковариационной матрицы для случая, когда индикаторная функция оценивается как ноль, находим

Инвариантность [ править ]

Свойства инвариантности подразумевают единообразное выполнение класса целевых функций. Утверждалось, что они являются преимуществом, поскольку позволяют обобщать и прогнозировать поведение алгоритма и, следовательно, усиливают смысл эмпирических результатов, полученных для отдельных функций. Для CMA-ES установлены следующие свойства инвариантности.

  • Инвариантность относительно сохраняющих порядок преобразований значения целевой функции , в том смысле , что для любых поведение одинаково для всех строго возрастающих . Эту инвариантность легко проверить, поскольку в алгоритме используется только -ранжирование, которое инвариантно относительно выбора .
  • Масштабная инвариантность в том, что для любого поведение не зависит от заданной целевой функции и .
  • Инвариантность относительно вращения пространства поиска в этом для любого и любого поведение на не зависит от заданной ортогональной матрицы . В более общем смысле, алгоритм также инвариантен относительно общих линейных преобразований, когда дополнительно выбирается исходная ковариационная матрица как .

Любой серьезный метод оптимизации параметров должен быть инвариантным к трансляции, но большинство методов не обладают всеми описанными выше свойствами инвариантности. Ярким примером с такими же свойствами инвариантности является метод Нелдера – Мида , в котором исходный симплекс должен быть выбран соответственно.

Конвергенция [ править ]

Концептуальные соображения, такие как свойство масштабной инвариантности алгоритма, анализ более простых стратегий эволюции и неопровержимые эмпирические данные, предполагают, что алгоритм сходится на большом классе функций быстро к глобальному оптимуму, обозначенному как . На некоторых функциях сходимость происходит независимо от начальных условий с вероятностью единица. Для некоторых функций вероятность меньше единицы и обычно зависит от начального значения и . Эмпирический, самая быстрая скорость сходимости в течение ранга на основе методов прямого поиска часто можно наблюдать ( в зависимости от контекста , обозначается как линейная или лог-линейным или экспоненциальнымконвергенция). Неформально мы можем написать

для некоторых и более строго

или аналогично,

Это означает, что в среднем расстояние до оптимума уменьшается на каждой итерации в "постоянный" коэффициент, а именно на . Скорость сходимости грубо , учитывая не намного больше , чем размер . Даже при оптимальном и скорость сходимости не может значительно превышать , учитывая, что все вышеупомянутые веса рекомбинации неотрицательны. Фактические линейные зависимости в и замечательны, и в обоих случаях они являются лучшими, на что можно надеяться в этом виде алгоритма. Тем не менее, строгого доказательства сходимости нет.

Интерпретация как преобразование системы координат [ править ]

Использование неединичной ковариационной матрицы для многомерного нормального распределения в эволюционных стратегиях эквивалентно преобразованию системы координат векторов решений [7], главным образом потому, что уравнение выборки

может быть эквивалентно выражено в "закодированном пространстве" как

Ковариационная матрица определяет биективное преобразование (кодирование) для всех векторов решений в пространство, где происходит выборка с помощью единичной ковариационной матрицы. Поскольку уравнения обновления в CMA-ES инвариантны относительно преобразований линейной системы координат, CMA-ES может быть переписан как процедура адаптивного кодирования, применяемая к простой стратегии эволюции с тождественной ковариационной матрицей. [7] Эта процедура адаптивного кодирования не ограничивается алгоритмами, которые выбирают из многомерного нормального распределения (например, стратегии эволюции), но в принципе может применяться к любому методу итеративного поиска.

Производительность на практике [ править ]

В отличие от большинства других эволюционных алгоритмов , CMA-ES, с точки зрения пользователя, квазипараметрический. Пользователь должен выбрать начальную точку раствора, и начальный размер шага, . Необязательно, количество выборок-кандидатов λ (размер популяции) может быть изменено пользователем, чтобы изменить характерное поведение поиска (см. Выше), а условия завершения могут или должны быть скорректированы в соответствии с рассматриваемой проблемой.

CMA-ES был эмпирически успешен в сотнях приложений и считается полезным, в частности, для невыпуклых, неотделимых, плохо обусловленных, мультимодальных или зашумленных целевых функций. [8] Один обзор оптимизаций «черного ящика» показал, что он превосходит 31 другой алгоритм оптимизации, особенно эффективно работая с «сложными функциями» или более крупными пространствами поиска. [9]

Размер области поиска обычно колеблется от двух до нескольких сотен. Предполагая сценарий оптимизации черного ящика, где градиенты недоступны (или бесполезны), а оценки функций являются единственной рассматриваемой стоимостью поиска, метод CMA-ES, вероятно, будет лучше других методов в следующих условиях:

  • на низкоразмерных функциях, например , с помощью метода симплексного спуска или методов на основе суррогатов (например, кригинга с ожидаемым улучшением);
  • о разделяемых функциях без или с незначительными зависимостями между проектными переменными, в частности, в случае многомодальности или большой размерности, например, путем дифференциальной эволюции ;
  • на (почти) выпуклые -Квадратные функции с низким или умеренной обусловленностью из матрицы Гесса , где BFGS или NEWUOA , как правило , в десять раз быстрее;
  • на функциях, которые уже могут быть решены с помощью сравнительно небольшого количества вычислений функций, скажем, не более чем , где CMA-ES часто работает медленнее, чем, например, NEWUOA или многоуровневый поиск координат (MCS).

В случае разделяемых функций недостаток производительности, вероятно, будет наиболее значительным, поскольку CMA-ES может не найти вообще сопоставимых решений. С другой стороны, на неотделимых функциях, которые плохо подготовлены или труднопроходимы или которые могут быть решены только с помощью более чем функциональной оценки, CMA-ES чаще всего показывает превосходную производительность.

Варианты и расширения [ править ]

(1 + 1) -CMA-ES [10] генерирует только одно решение-кандидат на шаг итерации, которое становится новым средним распределением, если оно лучше текущего среднего. Для (1 + 1) -CMA-ES - близкий вариант гауссовой адаптации . Некоторые стратегии Natural Evolution являются близкими вариантами CMA-ES с определенными настройками параметров. Стратегии естественной эволюции не используют пути эволюции (что означает в настройке CMA-ES ), и они формализуют обновление дисперсий и ковариаций по фактору Холецкого вместо ковариационной матрицы. CMA-ES также был расширен до многоцелевой оптимизации как MO-CMA-ES. [11]Еще одно замечательное расширение - добавление отрицательного обновления ковариационной матрицы с так называемым активным CMA. [12] Использование дополнительного активного обновления CMA в настоящее время считается вариантом по умолчанию. [13]

См. Также [ править ]

  • Глобальная оптимизация
  • Стохастическая оптимизация
  • Оптимизация без производных
  • Оценка алгоритма распределения

Ссылки [ править ]

  1. ^ Хансен, Н. (2006), "Стратегия эволюции CMA: сравнительный обзор", На пути к новым эволюционным вычислениям. Успехи в оценке алгоритмов распределения , Springer, стр. 1769–1776, CiteSeerX  10.1.1.139.7369
  2. ^ Auger, A .; Н. Хансен (2005). «Стратегия возобновления развития CMA с увеличением численности населения» (PDF) . 2005 Конгресс IEEE по эволюционным вычислениям, Труды . IEEE. С. 1769–1776.
  3. ^ Шир, ОМ; А. Иегудаофф (2020). «О ковариантно-гессианском отношении в эволюционных стратегиях» . Теоретическая информатика . Эльзевир. 801 : 157–174. DOI : 10.1016 / j.tcs.2019.09.002 .
  4. ^ a b c Акимото, Y .; Ю. Нагата; И. Оно; С. Кобаяши (2010). «Двунаправленная связь между стратегиями эволюции CMA и стратегиями естественной эволюции» . Параллельное решение проблем с натуры, PPSN XI . Springer. С. 154–163.
  5. ^ a b Glasmachers, T .; Т. Шауль; Ю. Солнце; Д. Виерстра; Дж. Шмидхубер (2010). «Экспоненциальные стратегии естественной эволюции» (PDF) . Конференция по генетическим и эволюционным вычислениям GECCO . Портленд, штат Орегон.
  6. ^ Ollivier, Y .; Арнольд, Л .; Auger, A .; Хансен, Н. (2017). "Информационно-геометрические алгоритмы оптимизации: объединяющая картина через принципы инвариантности" (PDF) . Журнал исследований в области машинного обучения . 18 (18): 1-65.
  7. ^ а б Хансен, Н. (2008). «Адпативное кодирование: как сделать поисковую систему координат неизменной» . Параллельно Решение проблемы с природой, PPSN X . Springer. С. 205–214.
  8. ^ «Ссылки на приложения CMA-ES» (PDF) .
  9. ^ Хансен, Николаус (2010). «Сравнение результатов 31 алгоритма бенчмаркинга оптимизации черного ящика BBOB-2009» (PDF) .
  10. ^ Igel, C .; Т. Сутторп; Н. Хансен (2006). «Вычислительная эффективная матрица ковариаций и (1 + 1) -CMA для эволюционных стратегий» (PDF) . Труды конференции по генетическим и эволюционным вычислениям (GECCO) . ACM Press. С. 453–460.
  11. ^ Igel, C .; Н. Хансен; С. Рот (2007). «Адаптация ковариационной матрицы для многокритериальной оптимизации». Эволюционные вычисления . 15 (1): 1-28. DOI : 10,1162 / evco.2007.15.1.1 . PMID 17388777 . 
  12. ^ Jastrebski, GA; Д.В. Арнольд (2006). «Улучшение эволюционных стратегий посредством адаптации активной ковариационной матрицы». 2006 Всемирный конгресс IEEE по вычислительному интеллекту, Труды . IEEE. С. 9719–9726. DOI : 10,1109 / CEC.2006.1688662 .
  13. ^ Хансен, Н. (2016). «Стратегия развития CMA: Учебное пособие». arXiv : 1604.00772 [ cs.LG ].

Библиография [ править ]

  • Хансен Н., Остермайер А. (2001). Полностью дерандомизированная самоадаптация в эволюционных стратегиях. Эволюционные вычисления , 9 (2) стр. 159–195. [1]
  • Хансен Н., Мюллер С.Д., Кумутсакос П. (2003). Снижение временной сложности стратегии дерандомизированной эволюции с помощью адаптации ковариационной матрицы (CMA-ES). Эволюционные вычисления , 11 (1) стр. 1–18. [2]
  • Хансен Н., Керн С. (2004). Оценка стратегии развития CMA на мультимодальных тестовых функциях. В Xin Yao et al., Редакторы, Parallel Problem Solving from Nature - PPSN VIII , pp. 282–291, Springer. [3]
  • Игель С., Хансен Н., Рот С. (2007). Адаптация ковариационной матрицы для многокритериальной оптимизации. Эволюционные вычисления , 15 (1) стр. 1-28. [4]

Внешние ссылки [ править ]

  • Краткое введение в CMA-ES Н. Хансена
  • Стратегия развития CMA: Учебное пособие
  • Страница исходного кода CMA-ES