Jump to content

Оценка алгоритма распределения

Оценка алгоритма распределения. Для каждой итерации i выполняется случайная выборка для популяции P в распределении PDu . Затем параметры распределения PDe оцениваются с использованием выбранных точек PS . Иллюстрированный пример оптимизирует непрерывную целевую функцию f(X) с уникальным оптимальным O . Выборка (соответствующая нормальному распределению N ) концентрируется вокруг оптимального значения по мере продвижения по алгоритму размотки.

Алгоритмы оценки распределения ( EDA ), иногда называемые генетическими алгоритмами вероятностного построения моделей (PMBGA), [1] — это методы стохастической оптимизации , которые направляют поиск оптимума путем построения и выборки явных вероятностных моделей перспективных возможных решений. Оптимизация рассматривается как серия дополнительных обновлений вероятностной модели, начиная с модели, кодирующей неинформативное априорное значение допустимых решений, и заканчивая моделью, генерирующей только глобальные оптимумы. [2] [3] [4]

EDA относятся к классу эволюционных алгоритмов . Основное различие между EDA и большинством традиционных эволюционных алгоритмов заключается в том, что эволюционные алгоритмы генерируют новые возможные решения, используя неявное распределение, определяемое одним или несколькими операторами вариации, тогда как EDA используют явное распределение вероятностей, закодированное байесовской сетью , многомерным нормальным распределением или другим способом. класс модели. Как и другие эволюционные алгоритмы, EDA могут использоваться для решения задач оптимизации, определенных для ряда представлений, от векторов до S-выражений в стиле LISP , а качество возможных решений часто оценивается с использованием одной или нескольких целевых функций.

Общая процедура EDA изложена в следующем:

t := 0
initialize model M(0) to represent uniform distribution over admissible solutions
while (termination criteria not met) do
    P := generate N>0 candidate solutions by sampling M(t)
    F := evaluate all candidate solutions in P
    M(t + 1) := adjust_model(P, F, M(t))
    t := t + 1

Использование явных вероятностных моделей в оптимизации позволило EDA реально решать задачи оптимизации, которые были заведомо трудными для большинства традиционных эволюционных алгоритмов и традиционных методов оптимизации, таких как проблемы с высоким уровнем эпистаза. [ нужна ссылка ] . Тем не менее, преимущество EDA также заключается в том, что эти алгоритмы предоставляют специалисту по оптимизации ряд вероятностных моделей, которые раскрывают много информации о решаемой проблеме. Эта информация, в свою очередь, может использоваться для разработки операторов окрестности для конкретной задачи для локального поиска, для смещения будущих запусков EDA по аналогичной проблеме или для создания эффективной вычислительной модели проблемы.

Например, если совокупность представлена ​​битовыми строками длиной 4, EDA может представлять совокупность многообещающего решения, используя один вектор из четырех вероятностей (p1, p2, p3, p4), где каждый компонент p определяет вероятность этого позиция равна 1. Используя этот вектор вероятности, можно создать произвольное количество возможных решений.

Оценка алгоритмов распределения (EDA)

[ редактировать ]

В этом разделе описаны модели, построенные некоторыми известными EDA различного уровня сложности. Всегда предполагается, что популяция в поколении , оператор выбора , оператор по построению моделей и оператор выборки .

Одномерные факторизации

[ редактировать ]

Самые простые EDA предполагают, что переменные решения независимы, т.е. . Следовательно, одномерные EDA полагаются только на одномерную статистику, а многомерные распределения должны быть факторизованы как произведение одномерные распределения вероятностей,

Такие факторизации используются во многих различных EDA, ниже мы опишем некоторые из них.

Алгоритм одномерного предельного распределения (UMDA)

[ редактировать ]

УМДА [5] — это простой EDA, использующий оператор для оценки предельных вероятностей из выбранной совокупности . Предполагая содержать элементы, производит вероятности:

Каждый шаг UMDA можно описать следующим образом.

ПБИЛ, [6] неявно представляет совокупность по своей модели, из которой она выбирает новые решения и обновляет модель. В каждом поколении отдельные лица отбираются и выбраны. Такие люди затем используются для обновления модели следующим образом:

где — параметр, определяющий скорость обучения , небольшое значение определяет, что предыдущая модель должны быть лишь слегка изменены новыми выбранными решениями. PBIL можно описать как

Компактный генетический алгоритм (cGA)

[ редактировать ]

ЦГА, [7] также полагается на неявные совокупности, определяемые одномерными распределениями. В каждом поколении , два человека отбираются, . Население затем сортируется в порядке убывания пригодности, , с быть лучшим и это худшее решение. CGA оценивает одномерные вероятности следующим образом:

где, — константа, определяющая скорость обучения , обычно равная . CGA можно определить как

Двумерные факторизации

[ редактировать ]

Хотя одномерные модели можно эффективно вычислять, во многих случаях они недостаточно репрезентативны, чтобы обеспечить лучшую производительность, чем ГА. Чтобы преодолеть такой недостаток, в сообществе EDA было предложено использование двумерной факторизации, с помощью которой можно было моделировать зависимости между парами переменных. Двумерную факторизацию можно определить следующим образом, где содержит возможную переменную, зависящую от , то есть .

Двумерные и многомерные распределения обычно представляют в виде вероятностных графических моделей (графиков), в которых ребра обозначают статистические зависимости (или условные вероятности), а вершины обозначают переменные. Чтобы изучить структуру PGM на основе обучения связям данных, используется обучение.

Взаимная кластеризация входных данных с максимизацией информации (MIMIC)

[ редактировать ]

МИМИЧЕСКИЙ [8] факторизует совместное распределение вероятностей в цепной модели, представляющей последовательные зависимости между переменными. Он находит перестановку переменных решения, , такой, что минимизирует расхождение Кульбака-Лейблера по отношению к истинному распределению вероятностей, т.е. . MIMIC моделирует распространение

Новые решения отбираются от самой левой до самой правой переменной, первая генерируется независимо, а остальные - в соответствии с условными вероятностями. Поскольку предполагаемое распределение необходимо пересчитывать в каждом поколении, MIMIC использует конкретные популяции следующим образом.

Алгоритм двумерного предельного распределения (BMDA)

[ редактировать ]

БМДА [9] факторизует совместное распределение вероятностей в двумерных распределениях. Сначала случайно выбранная переменная добавляется в качестве узла в графе, наиболее зависимая от одной из переменных в графе выбирается среди тех, которых еще нет в графе, эта процедура повторяется до тех пор, пока ни одна оставшаяся переменная не будет зависеть от какой-либо переменной в графе. график (проверен по пороговому значению).

Полученная модель представляет собой лес с несколькими деревьями, укорененными в узлах. . Учитывая некорневых переменных, BMDA оценивает факторизованное распределение, в котором корневые переменные могут быть выбраны независимо, тогда как все остальные должны быть обусловлены родительской переменной .

Каждый шаг BMDA определяется следующим образом

Многомерные факторизации

[ редактировать ]

Следующим этапом развития EDA стало использование многомерных факторизаций. В этом случае совместное распределение вероятностей обычно разлагается на несколько компонентов ограниченного размера. .

Изучение PGM, кодирующих многомерные распределения, является вычислительно дорогостоящей задачей, поэтому EDA обычно оценивают многомерную статистику на основе двумерной статистики. Такая релаксация позволяет строить PGM за полиномиальное время. ; однако это также ограничивает универсальность таких EDA.

Расширенный компактный генетический алгоритм (eCGA)

[ редактировать ]

ЭКГА [10] был одним из первых EDA, применивших многомерную факторизацию, в которой можно моделировать зависимости высокого порядка между переменными решения. Его подход факторизует совместное распределение вероятностей в продукте многомерных маргинальных распределений. Предполагать представляет собой набор подмножеств, в котором каждое представляет собой набор связей, содержащий переменные. Факторизованное совместное распределение вероятностей представлено следующим образом:

ECGA популяризировала термин «обучение по связям» как обозначение процедур, определяющих наборы связей. Его процедура обучения связям опирается на две меры: (1) сложность модели (MC) и (2) сложность сжатой совокупности (CPC). MC количественно определяет размер представления модели с точки зрения количества битов, необходимых для хранения всех предельных вероятностей.

CPC, с другой стороны, количественно оценивает сжатие данных с точки зрения энтропии предельного распределения по всем разделам, где выбранный размер популяции, количество переменных решения в наборе связей и - совместная энтропия переменных в

Обучение связям в ECGA работает следующим образом: (1) вставьте каждую переменную в кластер, (2) вычислите CCC = MC + CPC текущих наборов связей, (3) проверьте увеличение CCC, обеспечиваемое объединением пар кластеров, (4) эффективно объединяет те кластеры с наибольшим улучшением CCC. Эта процедура повторяется до тех пор, пока улучшения CCC становятся невозможными, и создается модель связи. . ECGA работает с конкретными совокупностями, поэтому, используя факторизованное распределение, смоделированное ECGA, его можно описать как

Алгоритм байесовской оптимизации (BOA)

[ редактировать ]

БОА [11] [12] [13] использует байесовские сети для моделирования и выборки перспективных решений. Байесовские сети представляют собой ориентированные ациклические графы, узлы которых представляют переменные, а ребра представляют условные вероятности между парами переменных. Значение переменной может быть обусловлено максимум другие переменные, определенные в . BOA строит PGM, кодируя факторизованное совместное распределение, в котором параметры сети, то есть условные вероятности, оцениваются на основе выбранной совокупности с использованием средства оценки максимального правдоподобия.

С другой стороны, структура байесовской сети должна строиться итеративно (обучение на основе связей). Он начинается с сети без ребер и на каждом шаге добавляет ребро, которое лучше улучшает некоторые метрики оценки (например, байесовский информационный критерий (BIC) или байесовскую метрику-Дирихле с эквивалентностью правдоподобия (BDe)). [14] Метрика оценки оценивает структуру сети в соответствии с ее точностью моделирования выбранной совокупности. Из построенной сети BOA выбирает новые многообещающие решения следующим образом: (1) он вычисляет наследственный порядок для каждой переменной, причем каждому узлу предшествуют его родители; (2) каждая переменная условно отбирается к своим родителям. Учитывая такой сценарий, каждый шаг BOA можно определить как

Генетический алгоритм дерева связей (LTGA)

[ редактировать ]

ЛТГА [15] отличается от большинства EDA в том смысле, что он не моделирует явно распределение вероятностей, а только модель связей, называемую деревом связей. Связь представляет собой набор наборов связей, не связанных с распределением вероятностей, поэтому нет возможности выбирать новые решения непосредственно из . Модель связей представляет собой дерево связей, хранящееся в виде семейства наборов (FOS).

Процедура обучения дерева связей представляет собой алгоритм иерархической кластеризации , который работает следующим образом. На каждом шаге два ближайших кластера и объединяются, эта процедура повторяется до тех пор, пока не останется только один кластер, каждое поддерево сохраняется как подмножество .

LTGA использует руководить процедурой «оптимального смешивания», которая напоминает оператор рекомбинации, но допускает только улучшающие ходы. Мы обозначаем его как , где обозначение указывает на передачу генетического материала, индексируемого от к .

Algorithm Gene-pool optimal mixing
   Input: A family of subsets  and a population 
   Output: A population .
   for each  in  do
       for each  in  do
           choose a random 
            := 
           := 
           if  then
               
   return 
  • « ←» означает присвоение . Например, « самый большой элемент » означает, что значение самого большого изменяется на значение элемента .
  • « return » завершает алгоритм и выводит следующее значение.

LTGA не реализует типичные операторы выбора, вместо этого выбор выполняется во время рекомбинации. Подобные идеи обычно применяются в эвристике локального поиска, и в этом смысле LTGA можно рассматривать как гибридный метод. Таким образом, один шаг LTGA определяется как

  • Коллективы вероятностей (ПК) [16] [17]
  • Восхождение на холм с обучением (HCwL) [18]
  • Оценка многомерного нормального алгоритма (EMNA) [ нужна ссылка ]
  • Оценка алгоритма байесовских сетей (EBNA) [ нужна ссылка ]
  • Стохастическое восхождение в гору с обучением по векторам нормального распределения (SHCLVND) [19]
  • PBIL с реальным кодом [ нужна ссылка ]
  • Алгоритм эгоистичного гена (SG) [20]
  • Компактная дифференциальная эволюция (cDE) [21] и его варианты [22] [23] [24] [25] [26] [27]
  • Оптимизация компактного роя частиц (cPSO) [28]
  • Компактная оптимизация бактериального сбора пищи (cBFO) [29]
  • Вероятностная поэтапная эволюция программы (PIPE) [30]
  • Алгоритм оценки гауссовских сетей (EGNA) [ нужна ссылка ]
  • Многомерный нормальный алгоритм оценки с пороговой сходимостью [31]
  • Генетический алгоритм матрицы структуры зависимостей (DSMGA) [32] [33]
[ редактировать ]
  1. ^ Пеликан, Мартин (21 февраля 2005 г.), «Генетические алгоритмы построения вероятностных моделей», Алгоритм иерархической байесовской оптимизации , Исследования в области нечеткости и мягких вычислений, том. 170, Springer Berlin Heidelberg, стр. 13–30, номер документа : 10.1007/978-3-540-32373-0_2 , ISBN.  9783540237747
  2. ^ Питер Ларраньяга; Джозеф А. Лозано (2002). Оценка алгоритмов распределения — новый инструмент эволюционных вычислений . Бостон, Массачусетс: Springer US. ISBN  978-1-4615-1539-5 .
  3. ^ Джозеф А. Лозано; Ларраньяга, П.; Инза, И.; Бенгоэчеа, Э. (2006). На пути к новым эволюционным вычислительным достижениям в оценке алгоритмов распределения . Берлин: Шпрингер. ISBN  978-3-540-32494-2 .
  4. ^ Пеликан, Мартин; Састри, Кумара; Канту-Пас, Эрик (2006). Масштабируемая оптимизация посредством вероятностного моделирования: от алгоритмов к приложениям; с 26 столами . Берлин: Шпрингер. ISBN  978-3540349532 .
  5. ^ Мюленбайн, Хайнц (1 сентября 1997 г.). «Уравнение реакции на выбор и его использование для прогнозирования» . Эвол. Вычисление . 5 (3): 303–346. дои : 10.1162/evco.1997.5.3.303 . ISSN   1063-6560 . ПМИД   10021762 . S2CID   2593514 .
  6. ^ Балуджа, Шуммет (1 января 1994 г.). «Популяционное дополнительное обучение: метод интеграции оптимизации функций на основе генетического поиска и конкурентного обучения» . Университет Карнеги-Меллон. {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  7. ^ Харик, гр.; Лобо, ФГ; Гольдберг, Делавэр (1999). «Компактный генетический алгоритм». Транзакции IEEE в эволюционных вычислениях . 3 (4): 287–297. дои : 10.1109/4235.797971 .
  8. ^ Боне, Джереми С. Де; Исбелл, Чарльз Л.; Виола, Пол (1 января 1996 г.). «MIMIC: поиск оптимума путем оценки плотностей вероятности». Достижения в области нейронных систем обработки информации : 424. CiteSeerX   10.1.1.47.6497 .
  9. ^ Пеликан, Мартин; Мюленбайн, Хайнц (1 января 1999 г.). «Алгоритм двумерного предельного распределения». Достижения в области мягких вычислений . стр. 100-1 521–535. CiteSeerX   10.1.1.55.1151 . дои : 10.1007/978-1-4471-0819-1_39 . ISBN  978-1-85233-062-0 .
  10. ^ Харик, Жорж Райф (1997). Изучение связи генов для эффективного решения задач ограниченной сложности с использованием генетических алгоритмов (доктор философии). Мичиганский университет.
  11. ^ Пеликан, Мартин; Голдберг, Дэвид Э.; Канту-Пас, Эрик (1 января 1999 г.). «BOA: Алгоритм байесовской оптимизации». Морган Кауфманн: 525–532. CiteSeerX   10.1.1.46.8131 . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  12. ^ Пеликан, Мартин (2005). Иерархический байесовский алгоритм оптимизации: к новому поколению эволюционных алгоритмов (1-е изд.). Берлин [ua]: Шпрингер. ISBN  978-3-540-23774-7 .
  13. ^ Вулперт, Дэвид Х.; Раджнараян, Дев (1 января 2013 г.). «Использование машинного обучения для улучшения стохастической оптимизации» . Материалы 17-й конференции AAAI по новейшим разработкам в области искусственного интеллекта . Aaaiws'13–17: 146–148.
  14. ^ Ларраньяга, Педро; Каршенас, Хосейн; Бьельца, Конча; Сантана, Роберто (21 августа 2012 г.). «Обзор вероятностных графических моделей в эволюционных вычислениях» . Журнал эвристики . 18 (5): 795–819. дои : 10.1007/s10732-012-9208-4 . S2CID   9734434 .
  15. ^ Тиренс, Дирк (11 сентября 2010 г.). «Генетический алгоритм дерева связей». Параллельное решение проблем из природы, PPSN XI . стр. 264–273. дои : 10.1007/978-3-642-15844-5_27 . ISBN  978-3-642-15843-8 .
  16. ^ ВОЛПЕРТ, ДЭВИД Х.; ШТРАУС, ЧАРЛИ ЭМ; РАДЖНАРАЯН, ДЕВ (декабрь 2006 г.). «Достижения в распределенной оптимизации с использованием вероятностных коллективов». Достижения в области сложных систем . 09 (4): 383–436. CiteSeerX   10.1.1.154.6395 . дои : 10.1142/S0219525906000884 .
  17. ^ Пеликан, Мартин; Голдберг, Дэвид Э.; Лобо, Фернандо Г. (2002). «Обзор оптимизации путем построения и использования вероятностных моделей». Вычислительная оптимизация и приложения . 21 (1): 5–20. дои : 10.1023/А:1013500812258 .
  18. ^ Рудлоф, Стефан; Кеппен, Марио (1997). «Стохастическое восхождение на холм с обучением векторами нормального распределения»: 60–70. CiteSeerX   10.1.1.19.3536 . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  19. ^ Рудлоф, Стефан; Кеппен, Марио (1997). «Стохастическое восхождение на холм с обучением векторами нормального распределения»: 60–70. CiteSeerX   10.1.1.19.3536 . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  20. ^ Корно, Фульвио; Реорда, Маттео Сонца; Скиллеро, Джованни (27 февраля 1998 г.). Алгоритм эгоистичного гена: новая стратегия эволюционной оптимизации . АКМ. стр. 349–355. дои : 10.1145/330560.330838 . ISBN  978-0897919692 . S2CID   9125252 .
  21. ^ Мининно, Эрнесто; Нери, Ферранте; Купертино, Франческо; Насо, Дэвид (2011). «Компактная дифференциальная эволюция». Транзакции IEEE в эволюционных вычислениях . 15 (1): 32–54. дои : 10.1109/tevc.2010.2058120 . ISSN   1089-778X . S2CID   20582233 .
  22. ^ Якка, Джованни; Караффини, Фабио; Нери, Ферранте (2012). «Компактный дифференциальный Evolution Light: высокая производительность, несмотря на ограниченные требования к памяти и скромные вычислительные затраты». Журнал компьютерных наук и технологий . 27 (5): 1056–1076. дои : 10.1007/s11390-012-1284-2 . ISSN   1000-9000 . S2CID   3184035 .
  23. ^ Якка, Джованни; Нери, Ферранте; Мининно, Эрнесто (2011), «Оппозиционное обучение в компактной дифференциальной эволюции», Приложения эволюционных вычислений , Springer Berlin Heidelberg, стр. 264–273, doi : 10.1007/978-3-642-20525-5_27 , ISBN  9783642205248
  24. ^ Маллипедди, Раммохан; Якка, Джованни; Сугантан, Поннутурай Нагаратнам; Нери, Ферранте; Мининно, Эрнесто (2011). «Ансамблевые стратегии в компактной дифференциальной эволюции». Конгресс IEEE по эволюционным вычислениям (CEC) , 2011 г. IEEE. стр. 1972–1977. дои : 10.1109/cec.2011.5949857 . ISBN  9781424478347 . S2CID   11781300 .
  25. ^ Нери, Ферранте; Якка, Джованни; Мининно, Эрнесто (2011). «Компактная дифференциальная эволюция Disturbed Exploitation для ограниченных задач оптимизации памяти». Информационные науки . 181 (12): 2469–2487. дои : 10.1016/j.ins.2011.02.004 . ISSN   0020-0255 .
  26. ^ Якка, Джованни; Маллипедди, Раммохан; Мининно, Эрнесто; Нери, Ферранте; Сугантан, Паннутурай Нагаратнам (2011). «Глобальный надзор за компактной дифференциальной эволюцией». Симпозиум IEEE по дифференциальной эволюции (SDE) 2011 г. IEEE. стр. 1–8. дои : 10.1109/sde.2011.5952051 . ISBN  9781612840710 . S2CID   8874851 .
  27. ^ Якка, Джованни; Маллипедди, Раммохан; Мининно, Эрнесто; Нери, Ферранте; Сугантан, Паннутурай Нагаратнам (2011). «Суперподгонка и сокращение численности населения в компактной дифференциальной эволюции». Семинар IEEE 2011 г. по меметическим вычислениям (MC) . IEEE. стр. 1–8. дои : 10.1109/mc.2011.5953633 . ISBN  9781612840659 . S2CID   5692951 .
  28. ^ Нери, Ферранте; Мининно, Эрнесто; Якка, Джованни (2013). «Оптимизация роя компактных частиц». Информационные науки . 239 : 96–121. дои : 10.1016/j.ins.2013.03.026 . ISSN   0020-0255 .
  29. ^ Якка, Джованни; Нери, Ферранте; Мининно, Эрнесто (2012), «Оптимизация компактного бактериального поиска пищи», Swarm and Evolutionary Computation , Springer Berlin Heidelberg, стр. 84–92, doi : 10.1007/978-3-642-29353-5_10 , hdl : 11572/196442 , ISBN  9783642293528
  30. ^ Салустович, ноль; Шмидхубер, ноль (1997). «Вероятностная постепенная эволюция программы» . Эволюционные вычисления . 5 (2): 123–141. дои : 10.1162/evco.1997.5.2.123 . ISSN   1530-9304 . ПМИД   10021756 . S2CID   10759266 .
  31. ^ Тамайо-Вера, Дания; Болуфе-Ролер, Антонио; Чен, Стивен (2016). «Оценка многомерного нормального алгоритма с пороговой сходимостью». Конгресс IEEE по эволюционным вычислениям (CEC) 2016 г. IEEE. стр. 3425–3432. дои : 10.1109/cec.2016.7744223 . ISBN  9781509006236 . S2CID   33114730 .
  32. ^ Ю, Тянь-Ли; Голдберг, Дэвид Э.; Ясин, Али; Чен, Ин-Пин (2003), «Разработка генетического алгоритма, вдохновленная организационной теорией: пилотное исследование генетического алгоритма, управляемого матрицей зависимостей», Генетические и эволюционные вычисления - GECCO 2003 , Springer Berlin Heidelberg, стр. 1620–1621, doi : 10.1007/3-540-45110-2_54 , ISBN  9783540406037
  33. ^ Сюй, Ши-Хуань; Ю, Тянь-Ли (11 июля 2015 г.). Оптимизация путем обнаружения парных связей, постепенного набора связей и ограниченного/обратного микширования: DSMGA-II . АКМ. стр. 519–526. arXiv : 1807.11669 . дои : 10.1145/2739480.2754737 . ISBN  9781450334723 . S2CID   17031156 .
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 0a1a98da6fccd0ff80b5ec5d27747175__1714232820
URL1:https://arc.ask3.ru/arc/aa/0a/75/0a1a98da6fccd0ff80b5ec5d27747175.html
Заголовок, (Title) документа по адресу, URL1:
Estimation of distribution algorithm - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)