Jump to content

Сглаженный анализ

Случайно сгенерированное растровое изображение не похоже на типичные изображения.
Типичное изображение не похоже на случайное растровое изображение.

В информатике теоретической сглаженный анализ — это способ измерения сложности алгоритма . С момента своего появления в 2001 году сглаженный анализ использовался в качестве основы для обширных исследований для решения самых разных задач: от математического программирования , численного анализа , машинного обучения и интеллектуального анализа данных . [1] Он может дать более реалистичный анализ практической производительности (например, времени работы, вероятности успеха, качества аппроксимации) алгоритма по сравнению с анализом, в котором используются сценарии наихудшего или среднего случая.

Сглаженный анализ — это гибрид анализа наихудшего и среднего случая, который наследует преимущества обоих. Он измеряет ожидаемую производительность алгоритмов при небольших случайных изменениях входных данных в худшем случае. Если сглаженная сложность алгоритма низкая, то маловероятно, что алгоритму потребуется много времени для решения практических примеров, данные которых подвержены небольшим шумам и неточностям. Результаты сглаженной сложности — это сильные вероятностные результаты, грубо утверждающие, что в каждой достаточно большой окрестности пространства входных данных большинство входных данных легко разрешимы. Таким образом, низкая сглаженная сложность означает, что твердость входных данных является «хрупким» свойством.

Хотя сложность наихудшего случая успешно объясняет практическую работу многих алгоритмов, этот стиль анализа дает вводящие в заблуждение результаты для ряда задач. В худшем случае сложность измеряет время, необходимое для решения любого ввода, хотя на практике трудноразрешимые входные данные могут никогда не возникнуть. В таких случаях время работы в худшем случае может быть намного хуже, чем наблюдаемое на практике время работы. Например, сложность решения линейной программы с использованием симплексного алгоритма в наихудшем случае является экспоненциальной: [2] хотя наблюдаемое количество шагов на практике примерно линейно. [3] [4] На практике симплексный алгоритм на самом деле намного быстрее, чем метод эллипсоида , хотя последний имеет полиномиальную сложность в худшем случае.

Анализ среднего случая был впервые введен для преодоления ограничений анализа наихудшего случая. Однако результирующая сложность среднего случая сильно зависит от распределения вероятностей , выбранного для входных данных. Фактические входные данные и их распределение на практике могут отличаться от предположений, сделанных в ходе анализа: случайные входные данные могут сильно отличаться от типичных входных данных. Из-за такого выбора модели данных теоретический результат в среднем случае может мало что сказать о практической эффективности алгоритма.

Сглаженный анализ обобщает анализ как наихудшего, так и среднего случая и наследует сильные стороны обоих. Предполагается, что он будет гораздо более общим, чем сложность среднего случая, но при этом позволит доказать границы низкой сложности.

История [ править ]

ACM и Европейская ассоциация теоретической информатики вручили премию Гёделя 2008 года Дэниелу Спилману и Шанхуа Тэну за разработку сглаженного анализа. Название «Сглаженный анализ» было придумано Аланом Эдельманом . [1] В 2010 году Спилман получил премию Неванлинны за разработку сглаженного анализа. Статья Спилмана и Тенга в JACM «Сглаженный анализ алгоритмов: почему симплексный алгоритм обычно занимает полиномиальное время» также стала одним из трех победителей премии Фулкерсона 2009 года , спонсируемой совместно Обществом математического программирования (MPS) и Американским математическим обществом (AMS). .

Примеры [ править ]

Симплексный алгоритм линейного программирования [ править ]

Симплексный алгоритм на практике является очень эффективным алгоритмом и одним из доминирующих алгоритмов линейного программирования на практике. В практических задачах количество шагов, выполняемых алгоритмом, линейно зависит от количества переменных и ограничений. [3] [4] Тем не менее, в худшем теоретическом случае для наиболее успешно анализируемых сводных правил требуется экспоненциально много шагов. Это было одной из основных мотиваций для разработки сглаженного анализа. [5]

Для модели возмущений мы предполагаем, что входные данные возмущены шумом из гауссова распределения . В целях нормализации мы предполагаем невозмущенные данные удовлетворяет для всех строк матрицы Шум имеет независимые записи, выбранные из распределения Гаусса со средним значением и стандартное отклонение . Мы устанавливаем . Сглаженные входные данные представляют собой линейную программу

максимизировать
при условии
.

Если время работы нашего алгоритма на данных дается тогда сглаженная сложность симплекс-метода равна [6]

Эта граница справедлива для определенного правила поворота, называемого правилом теневых вершин. Правило теневых вершин работает медленнее, чем более часто используемые правила поворота, такие как правило Данцига или правило самого крутого края. [7] но у него есть свойства, которые делают его очень подходящим для вероятностного анализа. [8]

Локальный поиск для комбинаторной оптимизации [ править ]

Ряд алгоритмов локального поиска имеют плохое время работы в худшем случае, но на практике работают хорошо. [9]

Одним из примеров является с двумя вариантами решения эвристика задачи коммивояжера . Для поиска локально оптимального решения может потребоваться экспоненциально много итераций, хотя на практике время выполнения субквадратично по числу вершин. [10] Коэффициент аппроксимации , который представляет собой соотношение между длиной вывода алгоритма и длиной оптимального решения, имеет тенденцию быть хорошим на практике, но также может быть плохим в худшем теоретическом случае.

Один класс примеров проблем можно определить следующим образом: очки в поле , где их попарные расстояния взяты из нормы . Уже в двух измерениях эвристика с двумя вариантами может потребовать экспоненциально много итераций, пока не будет найден локальный оптимум. В этом случае можно проанализировать модель возмущений, в которой вершины выбираются независимо в соответствии с распределениями вероятностей с функцией плотности вероятности . Для , точки распределены равномерно. Когда велик, у злоумышленника больше возможностей увеличить вероятность возникновения серьезных проблем. В этой модели возмущений ожидаемое количество итераций 2-opt эвристики, а также коэффициенты аппроксимации результирующего результата ограничены полиномиальными функциями и . [10]

Еще один алгоритм локального поиска, для которого сглаженный анализ оказался успешным, — это метод k-средних . Данный указывает на , NP-трудно найти хорошее разбиение на кластеры с небольшими попарными расстояниями между точками в одном кластере. Алгоритм Ллойда широко используется и очень быстр на практике, хотя для этого может потребоваться итерации в худшем случае для поиска локально оптимального решения. Однако, предполагая, что точки имеют независимые гауссовы распределения , каждая из которых имеет математическое ожидание в и стандартное отклонение , ожидаемое число итераций алгоритма ограничено полиномом от , и . [11]

См. также [ править ]

Ссылки [ править ]

  1. ^ Jump up to: Перейти обратно: а б Спилман, Дэниел ; Тенг, Шан-Хуа (2009), «Сглаженный анализ: попытка объяснить поведение алгоритмов на практике» (PDF) , Сообщения ACM , 52 (10), ACM: 76–84, doi : 10.1145/1562764.1562785 , S2CID   7904807
  2. ^ Амента, Нина ; Циглер, Гюнтер (1999), «Деформированные произведения и максимальные тени многогранников», Contemporary Mathematics , 223 , Американское математическое общество: 10–19, CiteSeerX   10.1.1.80.3241 , doi : 10.1090/conm/223 , ISBN  9780821806746 , МР   1661377
  3. ^ Jump up to: Перейти обратно: а б Шамир, Рон (1987), «Эффективность симплексного метода: исследование», Management Science , 33 (3): 301–334, doi : 10.1287/mnsc.33.3.301
  4. ^ Jump up to: Перейти обратно: а б Андрей, Некулай (2004), «Андрей, Некулай. «О сложности пакета MINOS для линейного программирования», Исследования по информатике и управлению , 13 (1): 35–46.
  5. ^ Спилман, Дэниел ; Тенг, Шан-Хуа (2001), «Сглаженный анализ алгоритмов», Труды тридцать третьего ежегодного симпозиума ACM по теории вычислений , ACM, стр. 296–305, arXiv : cs/0111050 , Bibcode : 2001cs... ....11050S , doi : 10.1145/380752.380813 , ISBN  978-1-58113-349-3 , S2CID   1471 {{citation}}: CS1 maint: дата и год ( ссылка )
  6. ^ Дадуш, Дэниел; Хьюбертс, Софи (2018), «Дружественный сглаженный анализ симплексного метода», Труды 50-го ежегодного симпозиума ACM SIGACT по теории вычислений , стр. 390–403, arXiv : 1711.05667 , doi : 10.1145/3188745.3188826 , ISBN  9781450355599 , S2CID   11868079 {{citation}}: CS1 maint: дата и год ( ссылка )
  7. ^ Боргвардт, Карл-Хайнц; Дамм, Рената; Дониг, Рудольф; Хоас, Габриэле (1993), «Эмпирические исследования средней эффективности симплексных вариантов при симметрии вращения», ORSA Journal on Computing , 5 (3), Американское общество исследования операций: 249–260, doi : 10.1287/ijoc.5.3. 249
  8. ^ Боргвардт, Карл-Хайнц (1987), Симплексный метод: вероятностный анализ , Алгоритмы и комбинаторика, том. 1, Springer-Verlag, номер документа : 10.1007/978-3-642-61578-8 , ISBN.  978-3-540-17096-9
  9. ^ Манти, Бодо (2021), Рафгарден, Тим (редактор), «Сглаженный анализ локального поиска» , Помимо анализа алгоритмов наихудшего случая , Кембридж: Cambridge University Press, стр. 285–308, doi : 10.1017/9781108637435.018 , ISBN  978-1-108-49431-1 , S2CID   221680879 , получено 15 июня 2022 г.
  10. ^ Jump up to: Перейти обратно: а б Энглерт, Матиас; Реглин, Хайко; Фёкинг, Бертольд (2007), «Наихудший случай и вероятностный анализ алгоритма с двумя вариантами для TSP», Труды восемнадцатого ежегодного симпозиума ACM-SIAM по дискретным алгоритмам , 68 : 190–264, arXiv : 2302.06889 , doi : 10.1007 /s00453-013-9801-4
  11. ^ Артур, Дэвид; Манти, Бодо; Реглин, Хейко (2011), «Сглаженный анализ метода k-средних» (PDF) , Журнал ACM , 58 (5): 1–31, doi : 10.1145/2027216.2027217 , S2CID   5253105
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 246b60aea977437537c97b39ce6608ff__1709653200
URL1:https://arc.ask3.ru/arc/aa/24/ff/246b60aea977437537c97b39ce6608ff.html
Заголовок, (Title) документа по адресу, URL1:
Smoothed analysis - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)