Принцип Яо
В сложности вычислений теории принцип Яо (также называемый принципом минимакса Яо или леммой Яо ) — это способ доказать нижние границы в наихудшем случае производительности рандомизированных алгоритмов путем сравнения их с детерминированными (неслучайными) алгоритмами. Он утверждает, что для любого рандомизированного алгоритма существует распределение вероятностей на входных данных алгоритма, так что ожидаемая стоимость рандомизированного алгоритма на его входных данных в наихудшем случае по крайней мере так же велика, как стоимость лучшего детерминированного алгоритма на входных данных алгоритма. случайный вход из этого распределения. Таким образом, чтобы установить нижнюю границу производительности рандомизированных алгоритмов, достаточно найти подходящее распределение сложных входных данных и доказать, что ни один детерминированный алгоритм не может хорошо работать при таком распределении. Этот принцип назван в честь Эндрю Яо , который первым его предложил.
Принцип Яо можно интерпретировать в терминах теории игр через игру двух игроков с нулевой суммой , в которой один игрок, Алиса , выбирает детерминированный алгоритм, другой игрок, Боб, выбирает входные данные, а выигрыш представляет собой стоимость выбранного алгоритма. алгоритм на выбранном входе. Любой рандомизированный алгоритм R можно интерпретировать как рандомизированный выбор среди детерминированных алгоритмов и, следовательно, как смешанную стратегию для Алисы. Точно так же неслучайный алгоритм можно рассматривать как чистую стратегию для Алисы. Согласно фон Неймана минимаксной теореме , у Боба есть рандомизированная стратегия, которая работает как против R, так и против лучшей чистой стратегии, которую могла бы выбрать Алиса. Входные данные в худшем случае против стратегии Алисы стоили по крайней мере столько же, сколько случайно выбранные входные данные Боба в паре со стратегией Алисы, которые, в свою очередь, стоили по крайней мере столько же, сколько случайно выбранные входные данные Боба в паре с любой чистой стратегией.
Заявление [ править ]
В приведенной ниже формулировке изложен принцип рандомизированных алгоритмов Лас-Вегаса , т. е. распределения по детерминированным алгоритмам, которые верны на всех входных данных, но имеют разные затраты. Этот принцип легко адаптировать к алгоритмам Монте-Карло , т. е. к распределениям по детерминированным алгоритмам, которые имеют ограниченные затраты, но могут быть неверными на некоторых входных данных.
Рассмотрим задачу над входными данными , и пусть быть набором всех возможных детерминированных алгоритмов, которые правильно решают задачу.Для любого алгоритма и ввод , позволять быть стоимостью алгоритма запускать на входе .
Позволять быть распределением вероятностей по алгоритмам , и пусть обозначают случайный алгоритм, выбранный в соответствии с . Позволять быть распределением вероятностей по входным параметрам , и пусть обозначают случайный вход, выбранный в соответствии с . Затем,
То есть ожидаемая стоимость рандомизированного алгоритма в наихудшем случае равна, по крайней мере, ожидаемой стоимости лучшего детерминированного алгоритма применительно к распределению входных данных. .
Доказательство [ править ]
Позволять и . У нас есть
Как упоминалось выше, эту теорему также можно рассматривать как весьма частный случай теоремы о минимаксе .
См. также [ править ]
Ссылки [ править ]
- Бородин, Аллан ; Эль-Янив, Ран (2005), «8.3 Принцип Яо: метод получения нижних границ» , Онлайн-вычисления и конкурентный анализ , Cambridge University Press, стр. 115–120, ISBN 9780521619462
- Яо, Эндрю (1977), «Вероятностные вычисления: к единой мере сложности», Труды 18-го симпозиума IEEE по основам информатики (FOCS) , стр. 222–227, doi : 10.1109/SFCS.1977.24
Внешние ссылки [ править ]
- Фортнау, Лэнс (16 октября 2006 г.), «Любимые теоремы: принцип Яо» , Вычислительная сложность