Jump to content

Теорема «Нет бесплатного обеда»

В математическом фольклоре « нет бесплатного обеда » ( НФЛ ) теорема (иногда во множественном числе) Дэвида Уолперта и Уильяма Макриди отсылает к поговорке « нет такой вещи, как бесплатный обед », то есть не существует легких кратчайших путей к успеху. Оно появилось в книге 1997 года «Теоремы об отсутствии бесплатного обеда для оптимизации». [1] Ранее Вулперт не вывел никаких теорем о бесплатном обеде для машинного обучения (статистический вывод). [2]

В 2005 году сами Вулперт и Макреди указали, что первая теорема в их статье «указывает, что любые два алгоритма оптимизации эквивалентны, если их производительность усреднена по всем возможным задачам». [3]

Теорема «без бесплатного обеда» (НФЛ) — это легко формулируемое и легко понимаемое следствие теорем, которые на самом деле доказывают Уолперт и Макреди. Он слабее доказанных теорем и, следовательно, не инкапсулирует их. Различные исследователи существенно расширили работу Уолперта и Макреди. С точки зрения того, как теорема НФЛ используется в контексте области исследований, бесплатный обед в поиске и оптимизации — это область, предназначенная для целей математического анализа данных для статистической идентичности, в частности поиска. [4] и оптимизация. [1]

В то время как некоторые ученые утверждают, что НФЛ дает важную информацию, другие утверждают, что НФЛ не имеет большого значения для исследований в области машинного обучения. [5] [6] [7]

Предположим, что игрушечная вселенная существует ровно два дня и в каждый день содержит ровно один объект: квадрат или треугольник. У Вселенной есть ровно четыре возможных истории:

  1. (квадрат, треугольник): Вселенная содержит квадрат в первый день и треугольник во второй день.
  2. (квадрат, квадрат)
  3. (треугольник, треугольник)
  4. (треугольник, квадрат)

Любая стратегия прогнозирования, которая успешна для истории № 2, предсказывая квадрат на второй день, если квадрат есть в первый день, потерпит неудачу на истории № 1, и наоборот. Если все истории одинаково вероятны, то любая стратегия прогнозирования будет иметь одинаковую оценку с одинаковой точностью 0,5. [8]

Источник

[ редактировать ]

Вулперт и Макриди приводят две теоремы НФЛ, тесно связанные с фольклорной теоремой. В своей статье они заявляют:

Мы назвали соответствующие результаты теоремами НФЛ, поскольку они демонстрируют, что если алгоритм хорошо справляется с определенным классом задач, то он обязательно расплачивается за это снижением производительности на множестве всех оставшихся задач. [1]

Первая теорема выдвигает гипотезу о целевых функциях , которые не изменяются во время оптимизации, а вторая предполагает, что целевые функции могут изменяться. [1]

Теорема . Для любых алгоритмов a 1 и a 2 на шаге итерации m где обозначает упорядоченный набор размера стоимостных значений связанный с входными значениями , оптимизируется ли функция и условная вероятность получения заданной последовательности значений стоимости из алгоритма бегать раз на функции .

Теорему можно эквивалентно сформулировать следующим образом:

Теорема . Учитывая конечное множество и конечное множество действительных чисел , предположим, что выбирается случайным образом согласно равномерному распределению на множестве всех возможных функций из к . По задаче оптимизации над съемочной площадкой , то ни один алгоритм не будет работать лучше, чем слепой поиск.

Здесь слепой поиск означает, что на каждом шаге алгоритма элемент выбирается случайным образом с равномерным распределением вероятностей из элементов которые не были выбраны ранее.

По сути это говорит о том, что при всех функций f равновероятности вероятность наблюдения произвольной последовательности значений m в ходе оптимизации не зависит от алгоритма. В аналитической структуре Вулперта и Макриди производительность является функцией последовательности наблюдаемых значений (а не, например, времени настенных часов), поэтому легко следует, что все алгоритмы имеют одинаково распределенную производительность, когда целевые функции рисуются равномерно и случайным образом. а также то, что все алгоритмы имеют одинаковую среднюю производительность. Но идентичная средняя производительность всех алгоритмов не подразумевает теорему 1, и, таким образом, фольклорная теорема не эквивалентна исходной теореме.

Теорема 2 устанавливает аналогичный, но «более тонкий» результат НФЛ для изменяющихся во времени целевых функций. [1]

Мотивация

[ редактировать ]

Теоремы НФЛ явно не были мотивированы вопросом о том, что можно сделать вывод (в случае НФЛ для машинного обучения) или найти (в случае НФЛ для поиска), когда «среда является однородной случайной». В качестве инструмента использовалась довольно равномерная случайность для сравнения количества сред, в которых алгоритм A превосходит алгоритм B, с количеством сред, в которых B превосходит A. НФЛ сообщает нам об этом (с соответствующим взвешиванием) [ нужны разъяснения ] в обоих этих наборах одинаково много сред.

Это верно для многих определений того, что такое «окружающая среда». В частности, существует столько же априорных распределений (соответствующе взвешенных), в которых алгоритм обучения A превосходит B (в среднем), как и наоборот. [ нужна ссылка ] Это утверждение о наборах априорных значений является наиболее важным в NFL, а не тот факт, что любые два алгоритма работают одинаково для одного конкретного априорного распределения, которое присваивает равную вероятность всем средам.

Хотя НФЛ важен для понимания фундаментальных ограничений ряда проблем, он ничего не говорит о каждом конкретном случае проблемы, которая может возникнуть на практике. То есть НФЛ заявляет то, что содержится в ее математических утверждениях, и это не более чем это. Например, это применимо к ситуациям, когда алгоритм фиксирован априорно, а проблема наихудшего случая для фиксированного алгоритма выбирается апостериорно. Следовательно, если на практике у нас есть «хорошая» проблема или если мы можем выбрать «хороший» алгоритм обучения для данного конкретного экземпляра проблемы, то НФЛ не упоминает никаких ограничений в отношении этого конкретного экземпляра проблемы. Хотя НФЛ может показаться противоречивым результатам других работ, предлагающих обобщение алгоритмов обучения или эвристики поиска, важно понимать разницу между точной математической логикой НФЛ и ее интуитивной интерпретацией. [9]

Подразумеваемое

[ редактировать ]

Чтобы проиллюстрировать одно из нелогичных последствий NFL, предположим, что мы исправили два алгоритма обучения с учителем, C и D. Затем мы выбираем целевую функцию f, чтобы создать набор пар ввода-вывода d . Вопрос в том, как нам выбрать, обучать ли C или D на d , чтобы делать прогнозы относительно того, какой выход будет связан с точкой, лежащей за пределами d.

Почти во всей науке и статистике принято отвечать на этот вопрос (выбирать между C и D) путем проведения перекрестной проверки d с помощью этих двух алгоритмов. Другими словами, чтобы решить, следует ли обобщать d с помощью C или D , мы видим, какой из них имеет лучшую производительность вне выборки при тестировании в d .

Поскольку C и D фиксированы, использование перекрестной проверки для выбора между ними само по себе является алгоритмом, то есть способом обобщения произвольного набора данных. Назовите этот алгоритм А. (Возможно, А представляет собой упрощенную модель самого научного метода.)

Мы также могли бы использовать антиперекрестную проверку, чтобы сделать выбор. Другими словами, мы могли бы выбирать между C и D в зависимости от того, какой из них имеет худшую производительность вне выборки в пределах d . Опять же, поскольку C и D фиксированы, такое использование антиперекрестной проверки само по себе является алгоритмом. Назовем этот алгоритм Б.

НФЛ говорит нам (грубо говоря), что B должен превзойти A по такому же количеству целевых функций (и связанных с ними наборов данных d ), сколько A превосходит B. В этом очень специфическом смысле научный метод так же легко проиграет «анти» научному методу. как оно побеждает. [10]

NFL применяется только в том случае, если целевая функция выбрана из равномерного распределения всех возможных функций. Если это не так и определенные целевые функции будут выбраны с большей вероятностью, чем другие, то в целом A может работать лучше, чем B. Вклад NFL заключается в том, что он говорит нам, что выбор подходящего алгоритма требует предположений о типах целевых функций, для которых используется алгоритм. Без каких-либо предположений ни один «мета-алгоритм», такой как научный метод, не будет работать лучше, чем случайный выбор.

В то время как некоторые ученые утверждают, что НФЛ дает важную информацию, другие утверждают, что НФЛ не имеет большого значения для исследований в области машинного обучения. [5] [6] [7] Если бритва Оккама верна, например, если последовательности более низкой колмогоровской сложности более вероятны, чем последовательности более высокой сложности, то (как это наблюдается в реальной жизни) некоторые алгоритмы, такие как перекрестная проверка, в среднем работают лучше при решении практических задач (когда по сравнению со случайным выбором или с антиперекрестной проверкой). [11]

Однако существуют серьезные формальные проблемы при использовании аргументов, основанных на колмогоровской сложности, для установления свойствреальный мир, поскольку он невычислим и не определен с точностью до произвольной аддитивной константы. Частично признавая эти проблемы,недавно утверждалось, что существуют способы обойти теорему об отсутствии бесплатных обедов, не ссылаясь наМашины Тьюринга с использованием «метаиндукции». [12] [13] Более того, колмогоровская сложность моделей машинного обучения может быть ограничена сверху посредством сжатия их разметки данных, и можно получить непустые границы междоменного обобщения с помощью колмогоровской сложности. [7]

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ Jump up to: а б с д и Вулперт, Д.Х.; Макриди, WG (1997). «Теоремы для оптимизации не требуют бесплатного обеда» . Транзакции IEEE в эволюционных вычислениях . 1 : 67–82. CiteSeerX   10.1.1.138.6606 . дои : 10.1109/4235.585893 . S2CID   5553697 .
  2. ^ Вулперт, Дэвид (1996), « Отсутствие априорных различий между алгоритмами обучения », Neural Computation , стр. 1341–1390. Архивировано 20 декабря 2016 г. в Wayback Machine.
  3. ^ Вулперт, Д.Х.; Макреди, WG (декабрь 2005 г.). «Коэволюционные бесплатные обеды» . Транзакции IEEE в эволюционных вычислениях . 9 (6): 721–735. дои : 10.1109/TEVC.2005.856205 . hdl : 2060/20050082129 . ISSN   1089-778X .
  4. ^ Вулперт, Д.Х.; Макреди, WG (1995). «Теоремы о бесплатном обеде для поиска отсутствуют». Технический отчет СФИ-ТР-95-02-010 . Институт Санта-Фе. S2CID   12890367 .
  5. ^ Jump up to: а б Уитли, Даррелл; Уотсон, Жан Поль (2005). Берк, Эдмунд К.; Кендалл, Грэм (ред.). Теория сложности и теорема об отсутствии бесплатного обеда . Бостон, Массачусетс: Springer US. стр. 317–339. дои : 10.1007/0-387-28356-0_11 . ISBN  978-0-387-23460-1 .
  6. ^ Jump up to: а б Жиро-Карье, Кристоф и Фостер Прово. « К оправданию метаобучения: является ли теорема об отсутствии бесплатных обедов остановкой шоу ». В материалах семинара ICML-2005 по метаобучению, стр. 12–19. 2005.
  7. ^ Jump up to: а б с Голдблюм М., Финци М., Кифер Р. и Уилсон А.Г. « Теорема об отсутствии бесплатного обеда, колмогоровская сложность и роль индуктивных смещений в машинном обучении ». В материалах Международной конференции по машинному обучению, 2024 г.
  8. ^ Форстер, Малкольм Р. (1999). «Как простые правила «соответствуют реальности» в сложном мире?». Разум и машины . 9 (4): 543–564. дои : 10.1023/А:1008304819398 . S2CID   8802657 .
  9. ^ Кавагути К., Кельблинг Л.П. и Бенджио Ю. (2017) «Обобщение в глубоком обучении», https://arxiv.org/abs/1710.05468
  10. ^ Вулперт, Дэвид Х. (декабрь 2013 г.). «Симпозиум по повсеместности: Эволюционные вычисления и жизненные процессы: что на самом деле означают теоремы о бесплатном обеде: как улучшить алгоритмы поиска» . Вездесущность . 2013 (декабрь): 1–15. дои : 10.1145/2555235.2555237 . ISSN   1530-2180 .
  11. ^ Латтимор, Тор и Маркус Хаттер. « Никаких бесплатных обедов против бритвы Оккама в контролируемом обучении ». В книге «Алгоритмическая вероятность и друзья». Байесовское предсказание и искусственный интеллект, стр. 223–235. Шпрингер, Берлин, Гейдельберг, 2013.
  12. ^ Шурц, Г. (2019). Решенная проблема Юма: оптимальность метаиндукции . МТИ Пресс.
  13. ^ Вулперт, Д.Х. (2023). «Следствие теорем об отсутствии бесплатного обеда для метаиндукции» . Журнал общей философии науки . 54 : 421–432. arXiv : 2103.11956 . дои : 10.1007/s10838-022-09609-2 .
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: af2e554bd2a692a6ec4202a5a30786e7__1722389520
URL1:https://arc.ask3.ru/arc/aa/af/e7/af2e554bd2a692a6ec4202a5a30786e7.html
Заголовок, (Title) документа по адресу, URL1:
No free lunch theorem - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)