WikiDer > Оценка алгоритма распределения
Оценка алгоритмов распределения (EDA), иногда называемый вероятностные генетические алгоритмы построения моделей (PMBGA),[1] находятся стохастическая оптимизация методы, которые направляют поиск оптимума путем построения и выборки явных вероятностных моделей многообещающих возможных решений. Оптимизация рассматривается как серия последовательных обновлений вероятностной модели, начиная с модели, кодирующей неинформативные априорные решения по сравнению с допустимыми, и заканчивая моделью, которая генерирует только глобальные оптимумы.[2][3][4]
EDA относятся к классу эволюционные алгоритмы. Основное различие между EDA и большинством обычных эволюционных алгоритмов заключается в том, что эволюционные алгоритмы генерируют новые возможные решения с использованием скрытый распределение определяется одним или несколькими операторами вариации, тогда как EDA используют явный распределение вероятностей, закодированное Байесовская сеть, а многомерное нормальное распределение, или другой класс модели. Подобно другим эволюционным алгоритмам, EDA можно использовать для решения задач оптимизации, определенных для ряда представлений от векторов до LISP стиль S-выражений, и качество возможных решений часто оценивается с помощью одной или нескольких целевых функций.
Общая процедура EDA изложена ниже:
т : = 0 инициализировать модель M (0) для представления равномерного распределения по допустимым решениямпока (критерии прекращения не выполнены) делать п : = генерировать N> 0 возможных решений путем выборки M (т) F : = оценить все возможные решения в п M (t + 1): = adjust_model (п, F, M (т)) т := т + 1
Использование явных вероятностных моделей в оптимизации позволило EDA реально решить задачи оптимизации, которые были заведомо сложными для большинства традиционных эволюционных алгоритмов и традиционных методов оптимизации, например, проблемы с высоким уровнем эпистаз[нужна цитата]. Тем не менее, преимущество EDA состоит также в том, что эти алгоритмы предоставляют специалисту по оптимизации ряд вероятностных моделей, которые раскрывают много информации о решаемой проблеме. Эта информация, в свою очередь, может использоваться для разработки операторов окружения для конкретных задач для локального поиска, для смещения будущих прогонов EDA по аналогичной проблеме или для создания эффективной вычислительной модели проблемы.
Например, если совокупность представлена строками битов длиной 4, EDA может представлять совокупность многообещающих решений, используя один вектор из четырех вероятностей (p1, p2, p3, p4), где каждый компонент p определяет вероятность того, что позиция равна 1. Используя этот вектор вероятности, можно создать произвольное количество возможных решений.
Оценка алгоритмов распределения (EDA)
В этом разделе описаны модели, построенные некоторыми хорошо известными EDA разного уровня сложности. Всегда предполагается, что население в поколении , оператор выбора , оператор построения модели и оператор выборки .
Одномерные факторизации
Самые простые EDA предполагают, что переменные решения независимы, т.е. . Следовательно, одномерные EDA полагаются только на одномерную статистику, а многомерные распределения должны быть факторизованы как произведение одномерные распределения вероятностей,
Такие факторизации используются во многих различных EDA, далее мы опишем некоторые из них.
Алгоритм одномерного маржинального распределения (UMDA)
UMDA[5] это простой EDA, в котором используется оператор для оценки предельных вероятностей от выбранной совокупности . Предполагая содержать элементы дает вероятности:
Каждый шаг UMDA можно описать следующим образом
Постепенное обучение на основе населения (PBIL)
PBIL,[6] неявно представляет совокупность своей моделью, на основе которой он выбирает новые решения и обновляет модель. В каждом поколении отбираются отдельные лица и выбраны. Затем такие люди используются для обновления модели следующим образом
куда - параметр, определяющий скорость обучения, небольшое значение определяет, что предыдущая модель должны быть лишь немного изменены за счет отобранных новых решений. PBIL можно описать как
Компактный генетический алгоритм (cGA)
CGA,[7] также полагается на неявные совокупности, определяемые одномерными распределениями. В каждом поколении , два человека отбираются, . Население затем сортируется в порядке убывания пригодности, , с быть лучшим и худшее решение. CGA оценивает одномерные вероятности следующим образом
куда, константа, определяющая скорость обучения, обычно устанавливается на . CGA можно определить как
Двумерные факторизации
Хотя одномерные модели можно вычислить эффективно, во многих случаях они недостаточно репрезентативны, чтобы обеспечить лучшую производительность, чем GA. Чтобы преодолеть такой недостаток, в сообществе EDA было предложено использование двумерной факторизации, в которой можно моделировать зависимости между парами переменных. Двумерная факторизация может быть определена следующим образом, где содержит возможную переменную, зависящую от , т.е. .
Двумерные и многомерные распределения обычно представлены как вероятностные Графические модели (графы), в которых ребра обозначают статистические зависимости (или условные вероятности), а вершины обозначают переменные. Чтобы узнать структуру PGM на основе связывания данных, используется обучение.
Взаимная информация, максимизирующая кластеризацию ввода (MIMIC)
MIMIC[8] факторизует совместное распределение вероятностей в цепной модели, представляющей последовательные зависимости между переменными. Он находит перестановку переменных решения, , так что сводит к минимуму Расхождение Кульбака-Лейблера по отношению к истинному распределению вероятностей, т.е. . MIMIC моделирует распределение
Новые решения выбираются от крайней левой до крайней правой переменной, первое генерируется независимо, а остальные - в соответствии с условными вероятностями. Поскольку расчетное распределение необходимо пересчитывать для каждого поколения, MIMIC использует конкретные популяции следующим образом
Алгоритм двумерного маржинального распределения (BMDA)
BMDA[9] факторизует совместное распределение вероятностей в двумерных распределениях. Во-первых, случайно выбранная переменная добавляется в качестве узла на графике, наиболее зависимая переменная к одной из переменных на графике выбирается среди тех, которых еще нет на графике, эта процедура повторяется до тех пор, пока ни одна из оставшихся переменных не зависит от какой-либо переменной в графе. график (проверенный по пороговому значению).
Результирующая модель представляет собой лес с несколькими деревьями, укорененными в узлах. . Учитывая Для некорневых переменных BMDA оценивает факторизованное распределение, в котором корневые переменные могут быть выбраны независимо, тогда как все остальные должны быть обусловлены родительской переменной .
Каждый шаг BMDA определяется следующим образом
Многомерные факторизации
Следующим этапом развития EDA стало использование многомерной факторизации. В этом случае совместное распределение вероятностей обычно факторизуется на несколько компонентов ограниченного размера. .
Изучение PGM, кодирующих многомерные распределения, является вычислительно затратной задачей, поэтому для EDA обычно оценивают многомерную статистику на основе двумерной статистики. Такая релаксация позволяет построить PGM за полиномиальное время за ; однако это также ограничивает универсальность таких EDA.
Расширенный компактный генетический алгоритм (eCGA)
ECGA[10] был одним из первых EDA, который использовал многомерную факторизацию, в которой можно моделировать зависимости высокого порядка между переменными решения. Его подход факторизует совместное распределение вероятностей в произведении многомерных маржинальных распределений. Предполагать набор подмножеств, в котором каждое набор связей, содержащий переменные. Факторизованное совместное распределение вероятностей представлено следующим образом
ECGA популяризировала термин «обучение связям» для обозначения процедур, которые идентифицируют наборы связей. Его процедура обучения связям основана на двух показателях: (1) сложности модели (MC) и (2) сложности сжатой совокупности (CPC). MC количественно определяет размер представления модели с точки зрения количества бит, необходимых для хранения всех предельных вероятностей.
CPC, с другой стороны, количественно оценивает сжатие данных в терминах энтропии предельного распределения по всем разделам, где - выбранная численность населения, количество переменных решения в наборе связей и - совместная энтропия переменных в
Обучение связыванию в ECGA работает следующим образом: (1) вставить каждую переменную в кластер, (2) вычислить CCC = MC + CPC для текущих наборов связей, (3) проверить увеличение CCC, обеспечиваемое объединением пар кластеров, (4) эффективно объединяет те кластеры с наибольшим улучшением CCC. Эта процедура повторяется до тех пор, пока улучшения CCC не станут невозможными, и не будет получена модель связи. . ECGA работает с конкретными популяциями, поэтому, используя факторизованное распределение, смоделированное с помощью ECGA, его можно описать как
Байесовский алгоритм оптимизации (BOA)
BOA[11][12][13] использует байесовские сети для моделирования и выборки многообещающих решений. Байесовские сети представляют собой ориентированные ациклические графы, в которых узлы представляют переменные, а ребра представляют собой условные вероятности между парой переменных. Значение переменной может быть обусловлено максимумом другие переменные, определенные в . BOA строит PGM, кодирующий факторизованное совместное распределение, в котором параметры сети, то есть условные вероятности, оцениваются по выбранной совокупности с использованием оценки максимального правдоподобия.
С другой стороны, байесовская сетевая структура должна строиться итеративно (связывание-обучение). Он начинается с сети без ребер и на каждом шаге добавляет ребро, которое лучше улучшает некоторую метрику оценки (например, байесовский информационный критерий (BIC) или метрику Байеса-Дирихле с эквивалентностью правдоподобия (BDe)).[14] Показатель скоринга оценивает структуру сети в соответствии с ее точностью моделирования выбранной популяции. На основе построенной сети BOA отбирает новые многообещающие решения следующим образом: (1) он вычисляет родовой порядок для каждой переменной, причем каждому узлу предшествуют его родители; (2) каждая переменная условно отбирается для своих родителей. При таком сценарии каждый шаг BOA можно определить как
Генетический алгоритм дерева сцепления (LTGA)
LTGA[15] отличается от большинства EDA в том смысле, что в нем явно не моделируется распределение вероятностей, а только модель связей, называемая деревом связей. Связь представляет собой набор наборов связей без ассоциированного распределения вероятностей, поэтому нет возможности брать образцы новых решений непосредственно из . Модель связей - это дерево связей, созданное в виде Семейство наборов (FOS).
Процедура изучения дерева связей - это иерархическая кластеризация алгоритм, который работает следующим образом. На каждом шагу двое ближайший кластеры и объединяются, эта процедура повторяется до тех пор, пока не останется только один кластер, каждое поддерево сохраняется как подмножество .
LTGA использует для управления процедурой «оптимального перемешивания», которая напоминает оператор рекомбинации, но допускает только улучшающие ходы. Обозначим его как , где обозначение указывает на передачу генетического материала, индексированного из к .
Алгоритм Оптимальное смешение генофонда Вход: семейство подмножеств и население Продукт: Население. . для каждого в делать для каждого в делать выбрать случайный := := если тогда возвращаться
- «←» означает назначение. Например, "самый большой ← элемент"означает, что стоимость самый большой изменяет стоимость элемент.
- "возвращаться"завершает алгоритм и выводит следующее значение.
LTGA не реализует типичные операторы выбора, вместо этого выбор выполняется во время рекомбинации. Подобные идеи обычно применялись в эвристике локального поиска, и в этом смысле LTGA можно рассматривать как гибридный метод. Таким образом, один шаг LTGA определяется как
Другой
- Вероятностные коллективы (ПК)[16][17]
- Восхождение на холмы с обучением (HCwL)[18]
- Оценка многомерного нормального алгоритма (EMNA)[нужна цитата]
- Алгоритм оценки байесовских сетей (EBNA)[нужна цитата]
- Стохастическое восхождение на гору с обучением по векторам нормальных распределений (SHCLVND)[19]
- PBIL с реальным кодированием[нужна цитата]
- Эгоистичный генный алгоритм (SG)[20]
- Компактная дифференциальная эволюция (cDE)[21] и его варианты[22][23][24][25][26][27]
- Оптимизация роя компактных частиц (cPSO)[28]
- Компактная оптимизация сбора бактерий (cBFO)[29]
- Вероятностная инкрементальная эволюция программы (PIPE)[30]
- Алгоритм оценки гауссовских сетей (EGNA)[нужна цитата]
- Многомерный нормальный алгоритм оценки с пороговой сходимостью[31]
- Генетический алгоритм матрицы структуры зависимостей (DSMGA)[32][33]
Связанный
Рекомендации
- ^ Пеликан, Мартин (21 февраля 2005 г.), "Вероятностные генетические алгоритмы построения моделей", Иерархический байесовский алгоритм оптимизации, Исследования в области нечеткости и мягких вычислений, 170, Springer Berlin Heidelberg, стр. 13–30, Дои:10.1007/978-3-540-32373-0_2, ISBN 9783540237747
- ^ Педро Ларраньяга; Хосе А. Лосано (2002). Оценка алгоритмов распределения - новый инструмент эволюционных вычислений. Бостон, Массачусетс: Springer США. ISBN 978-1-4615-1539-5.
- ^ Хосе А. Лосано; Larrañaga, P .; Inza, I .; Bengoetxea, E. (2006). К новым достижениям эволюционных вычислений в оценке алгоритмов распределения. Берлин: Springer. ISBN 978-3-540-32494-2.
- ^ Пеликан, Мартин; Шастри, Кумара; Канту-Пас, Эрик (2006). Масштабируемая оптимизация с помощью вероятностного моделирования: от алгоритмов до приложений; с 26 столами. Берлин: Springer. ISBN 978-3540349532.
- ^ Мюленбейн, Хайнц (1 сентября 1997 г.). «Уравнение реакции на выбор и его использование для прогнозирования». Evol. Вычисление. 5 (3): 303–346. Дои:10.1162 / evco.1997.5.3.303. ISSN 1063-6560. PMID 10021762.
- ^ Балуджа, Шуммет (1 января 1994 г.). «Поступательное обучение на основе популяции: метод интеграции оптимизации функций на основе генетического поиска и конкурентного обучения». Университет Карнеги Меллон. Цитировать журнал требует
| журнал =
(помощь) - ^ Harik, G.R .; Lobo, F.G .; Гольдберг, Д. (1999). «Компактный генетический алгоритм». IEEE Transactions по эволюционным вычислениям. 3 (4): 287–297. Дои:10.1109/4235.797971.
- ^ Бонет, Джереми С. Де; Isbell, Charles L .; Виола, Пол (1 января 1996). «MIMIC: поиск оптимума путем оценки вероятностной плотности». Достижения в системах обработки нейронной информации: 424. CiteSeerX 10.1.1.47.6497.
- ^ Пеликан, Мартин; Мюленбейн, Хайнц (1 января 1999 г.). Алгоритм двумерного маржинального распределения. Достижения в мягких вычислениях. С. 521–535. CiteSeerX 10.1.1.55.1151. Дои:10.1007/978-1-4471-0819-1_39. ISBN 978-1-85233-062-0.
- ^ Харик, Жорж Раиф (1997). Изучение сцепления генов для эффективного решения проблем ограниченной сложности с использованием генетических алгоритмов. Университет Мичигана.
- ^ Пеликан, Мартин; Голдберг, Дэвид Э .; Канту-Пас, Эрик (1 января 1999 г.). «BOA: Байесовский алгоритм оптимизации». Морган Кауфманн: 525–532. CiteSeerX 10.1.1.46.8131. Цитировать журнал требует
| журнал =
(помощь) - ^ Пеликан, Мартин (2005). Иерархический байесовский алгоритм оптимизации: к новому поколению эволюционных алгоритмов (1-е изд.). Берлин [u.a.]: Springer. ISBN 978-3-540-23774-7.
- ^ Wolpert, Дэвид Х .; Раджнараян, Дев (1 января 2013 г.). «Использование машинного обучения для улучшения стохастической оптимизации». Материалы 17-й конференции AAAI по новейшим разработкам в области искусственного интеллекта. Aaaiws'13-17: 146–148.
- ^ Ларраньяга, Педро; Каршенас, Хоссейн; Бьелза, Конча; Сантана, Роберто (21 августа 2012 г.). «Обзор вероятностных графических моделей в эволюционных вычислениях». Журнал эвристики. 18 (5): 795–819. Дои:10.1007 / s10732-012-9208-4.
- ^ Тьеренс, Дирк (11 сентября 2010 г.). Генетический алгоритм дерева сцепления. Параллельное решение проблем с натуры, PPSN XI. С. 264–273. Дои:10.1007/978-3-642-15844-5_27. ISBN 978-3-642-15843-8.
- ^ ВОЛЬПЕРТ, ДЭВИД H .; СТРАУСС, ЧАРЛИ Э. М .; РАДЖНАРАЯН, ДЭВ (декабрь 2006 г.). «Достижения в распределенной оптимизации с использованием вероятностных коллективов». Достижения в сложных системах. 09 (4): 383–436. CiteSeerX 10.1.1.154.6395. Дои:10.1142 / S0219525906000884.
- ^ Пеликан, Мартин; Голдберг, Дэвид Э .; Лобо, Фернандо Г. (2002). «Обзор оптимизации путем построения и использования вероятностных моделей». Вычислительная оптимизация и приложения. 21 (1): 5–20. Дои:10.1023 / А: 1013500812258.
- ^ Рудлоф, Стефан; Кеппен, Марио (1997). «Стохастическое восхождение на гору с обучением по векторам нормальных распределений». CiteSeerX 10.1.1.19.3536. Цитировать журнал требует
| журнал =
(помощь) - ^ Рудлоф, Стефан; Кеппен, Марио (1997). «Стохастическое восхождение на гору с обучением по векторам нормальных распределений»: 60–70. CiteSeerX 10.1.1.19.3536. Цитировать журнал требует
| журнал =
(помощь) - ^ Корно, Фульвио; Реорда, Маттео Сонца; Скиллеро, Джованни (27 февраля 1998). Алгоритм эгоистичного гена: новая стратегия эволюционной оптимизации. ACM. С. 349–355. Дои:10.1145/330560.330838. ISBN 978-0897919692.
- ^ Мининно, Эрнесто; Нери, Ферранте; Купертино, Франческо; Насо, Дэвид (2011). «Компактная дифференциальная эволюция». IEEE Transactions по эволюционным вычислениям. 15 (1): 32–54. Дои:10.1109 / tevc.2010.2058120. ISSN 1089-778X.
- ^ Якка, Джованни; Караффини, Фабио; Нери, Ферранте (2012). «Компактный дифференциальный светильник Evolution: высокая производительность, несмотря на ограниченные требования к памяти и скромные вычислительные затраты». Журнал компьютерных наук и технологий. 27 (5): 1056–1076. Дои:10.1007 / s11390-012-1284-2. ISSN 1000-9000.
- ^ Якка, Джованни; Нери, Ферранте; Мининно, Эрнесто (2011), "Обучение на основе оппозиции в компактной дифференциальной эволюции", Приложения эволюционных вычислений, Springer Berlin Heidelberg, стр. 264–273, Дои:10.1007/978-3-642-20525-5_27, ISBN 9783642205248
- ^ Маллипедди, Раммохан; Якка, Джованни; Сугантан, Поннутураи Нагаратнам; Нери, Ферранте; Мининно, Эрнесто (2011). Ансамблевые стратегии в компактной дифференциальной эволюции. 2011 IEEE Конгресс эволюционных вычислений (CEC). IEEE. Дои:10.1109 / cec.2011.5949857. ISBN 9781424478347.
- ^ Нери, Ферранте; Якка, Джованни; Мининно, Эрнесто (2011). «Компактная дифференциальная эволюция с нарушенной эксплуатацией для задач оптимизации с ограниченной памятью». Информационные науки. 181 (12): 2469–2487. Дои:10.1016 / j.ins.2011.02.004. ISSN 0020-0255.
- ^ Якка, Джованни; Маллипедди, Раммохан; Мининно, Эрнесто; Нери, Ферранте; Сугантан, Pannuthurai Nagaratnam (2011). Глобальный надзор за компактной дифференциальной эволюцией. Симпозиум IEEE по дифференциальной эволюции (SDE) 2011 г.. IEEE. Дои:10.1109 / sde.2011.5952051. ISBN 9781612840710.
- ^ Якка, Джованни; Маллипедди, Раммохан; Мининно, Эрнесто; Нери, Ферранте; Сугантан, Pannuthurai Nagaratnam (2011). Превосходная посадка и сокращение популяции в компактной системе Differential Evolution. Семинар IEEE 2011 по меметическим вычислениям (MC). IEEE. Дои:10.1109 / mc.2011.5953633. ISBN 9781612840659.
- ^ Нери, Ферранте; Мининно, Эрнесто; Якка, Джованни (2013). «Оптимизация роя компактных частиц». Информационные науки. 239: 96–121. Дои:10.1016 / j.ins.2013.03.026. ISSN 0020-0255.
- ^ Якка, Джованни; Нери, Ферранте; Мининно, Эрнесто (2012), «Оптимизация компактного сбора бактерий», Рой и эволюционные вычисления, Springer Berlin Heidelberg, стр. 84–92, Дои:10.1007/978-3-642-29353-5_10, ISBN 9783642293528
- ^ Салустович, null; Schmidhuber, null (1997). «Вероятностная инкрементальная эволюция программы». Эволюционные вычисления. 5 (2): 123–141. Дои:10.1162 / evco.1997.5.2.123. ISSN 1530-9304. PMID 10021756.
- ^ Тамайо-Вера, Дания; Болуфе-Ролер, Антонио; Чен, Стивен (2016). Многомерный нормальный алгоритм оценки с пороговой сходимостью. Конгресс IEEE по эволюционным вычислениям (CEC), 2016 г.. IEEE. Дои:10.1109 / cec.2016.7744223. ISBN 9781509006236.
- ^ Ю, Тянь-Ли; Голдберг, Дэвид Э .; Ясин, Али; Чен, Ин-Пинг (2003 г.), «Дизайн генетического алгоритма, вдохновленный теорией организации: экспериментальное исследование генетического алгоритма, управляемого матрицей структуры зависимостей», Генетические и эволюционные вычисления - GECCO 2003, Springer Berlin Heidelberg, стр. 1620–1621, Дои:10.1007/3-540-45110-2_54, ISBN 9783540406037
- ^ Сюй, Ши-Хуань; Ю, Тянь-Ли (11.07.2015). Оптимизация путем обнаружения парных связей, набора инкрементных связей и ограниченного / обратного смешивания: DSMGA-II. ACM. С. 519–526. arXiv:1807.11669. Дои:10.1145/2739480.2754737. ISBN 9781450334723.