Jump to content

Сложность примера

Сложность выборки алгоритма машинного обучения представляет собой количество обучающих выборок, необходимых для успешного изучения целевой функции.

Точнее, сложность выборки — это количество обучающих выборок, которые нам необходимо предоставить алгоритму, чтобы функция, возвращаемая алгоритмом, находилась в пределах сколь угодно малой ошибки наилучшей возможной функции с вероятностью, сколь угодно близкой к 1.

Возможны два варианта сложности выборки:

  • Слабый вариант фиксирует конкретное распределение затрат-выпуска;
  • В сильном варианте используется наихудшая выборочная сложность для всех распределений ввода-вывода.

Теорема «Нет бесплатного обеда» , обсуждаемая ниже, доказывает, что, как правило, сложность сильной выборки бесконечна, т. е. не существует алгоритма, который может изучить глобально оптимальную целевую функцию, используя конечное число обучающих выборок.

Однако если нас интересует только определенный класс целевых функций (например, только линейные функции), то сложность выборки конечна и линейно зависит от размерности VC в классе целевых функций. [1]

Определение [ править ]

Позволять быть пространством, которое мы называем входным пространством, и быть пространством, которое мы называем выходным пространством, и пусть обозначить продукт . Например, в случае бинарной классификации: обычно представляет собой конечномерное векторное пространство и это набор .

Исправьте пространство гипотез функций . Алгоритм обучения закончен представляет собой вычислимую карту из к . Другими словами, это алгоритм, который принимает на вход конечную последовательность обучающих выборок и выводит функцию из к . Типичные алгоритмы обучения включают минимизацию эмпирического риска без регуляризации Тихонова или с ней .

Исправление функции потерь , например, квадратная потеря , где . Для данного распределения на , ожидаемый риск гипотезы (функции) является

В нашей обстановке мы имеем , где это алгоритм обучения и представляет собой последовательность векторов, которые рисуются независимо от . Определите оптимальный риск

Набор , для каждого размера выборки . является случайной величиной и зависит от случайной величины , который извлекается из распределения . Алгоритм называется состоятельным, если вероятностно сходится к . Другими словами, для всех , существует целое положительное число , такой, что для всех размеров выборки , у нас есть

Пример сложности тогда это минимум для которого это справедливо в зависимости от , и . Запишем сложность выборки как подчеркнуть, что это значение зависит от , и . Если несовместно , то мы устанавливаем . Если существует алгоритм, для которого конечно, то мы говорим, что пространство гипотез является обучаемым .

Другими словами, сложность выборки определяет степень согласованности алгоритма: при заданной точности и уверенность , нужно попробовать точки данных, чтобы гарантировать, что риск выходной функции находится в пределах из наилучшего возможного, с вероятностью по крайней мере . [2]

При вероятно приблизительно правильном обучении (PAC) вопрос заключается в том, является ли сложность выборки полиномиальной , то есть является ли сложность выборки полиномиальной. ограничен многочленом от и . Если является полиномиальным для некоторого алгоритма обучения, то говорят, что пространство гипотез является PAC-обучаемым . Это более сильное понятие, чем обучаемость.

: бесконечная выборки сложность Неограниченное пространство гипотез

Можно задаться вопросом, существует ли алгоритм обучения, в котором сложность выборки была бы конечной в строгом смысле, то есть существует ограничение на количество необходимых выборок, чтобы алгоритм мог изучить любое распределение в пространстве ввода-вывода с указанная целевая ошибка. Более формально, возникает вопрос, существует ли алгоритм обучения. , такой, что для всех , существует целое положительное число такой, что для всех , у нас есть

где , с как указано выше. Теорема об отсутствии бесплатных обедов гласит, что без ограничений на пространство гипотез , это не так, т. е. всегда существуют «плохие» распределения, для которых сложность выборки сколь угодно велика. [1]

Таким образом, чтобы делать утверждения о скорости сходимости величины

нужно либо

  • ограничить пространство вероятностных распределений , например, с помощью параметрического подхода, или
  • ограничить пространство гипотез , как и в подходах без распределения.

выборочная : конечная сложность Ограниченное пространство гипотез

Последний подход приводит к таким понятиям, как размерность VC и сложность Радемахера , которые контролируют сложность пространства. . Меньшее пространство гипотез вносит большую предвзятость в процесс вывода, а это означает, что может быть больше, чем наилучший возможный риск в большем пространстве. Однако за счет ограничения сложности пространства гипотез алгоритм может создавать более равномерно согласованные функции. Этот компромисс приводит к концепции регуляризации . [2]

Это теорема теории VC , согласно которой следующие три утверждения эквивалентны для пространства гипотез. :

  1. является PAC-обучаемым.
  2. Размер венчурного капитала конечно.
  3. — однородный класс Гливенко-Кантелли .

Это дает возможность доказать, что определенные пространства гипотез являются обучаемыми с помощью PAC и, соответственно, обучаемыми.

Пример пространства гипотез, изучаемого PAC помощью с

, и пусть — пространство аффинных функций на , то есть функции вида для некоторых . Это линейная классификация со смещенной проблемой обучения. Теперь четыре копланарные точки в квадрате не могут быть разрушены какой-либо аффинной функцией, поскольку ни одна аффинная функция не может быть положительной в двух диагонально противоположных вершинах и отрицательной в двух оставшихся. Таким образом, размерность VC является , поэтому оно конечно. Из приведенной выше характеристики классов, обучаемых с помощью PAC, следует, что является обучаемым с помощью PAC и, соответственно, обучаемым.

Границы выборочной сложности [ править ]

Предполагать — это класс бинарных функций (функций для ). Затем, является -PAC-обучается с помощью выборки размером: [3]

где размерность VC .Более того, любой -PAC-алгоритм обучения для должен иметь выборочную сложность: [4]
Таким образом, сложность выборки является линейной функцией размерности VC пространства гипотез.

Предполагать — это класс вещественных функций с диапазоном значений в . Затем, является -PAC-обучается с помощью выборки размером: [5] [6]

где — это псевдоразмерность Полларда .

Другие настройки [ править ]

Помимо контролируемого обучения, сложность выборки актуальна для задач полуконтролируемого обучения, включая активное обучение , [7] где алгоритм может запрашивать метки для специально выбранных входных данных, чтобы снизить стоимость получения множества меток. Концепция сложности выборки также проявляется в обучении с подкреплением . [8] онлайн-обучение и алгоритмы без присмотра, например, для изучения словаря . [9]

Эффективность в робототехнике [ править ]

необходимо выполнить множество вычислений Высокая сложность выборки означает, что для выполнения поиска по дереву Монте-Карло . [10] Это эквивалентно бесмодальному перебору в пространстве состояний. Напротив, высокоэффективный алгоритм имеет низкую сложность выборки. [11] Возможными методами уменьшения сложности выборки являются метрическое обучение. [12] и обучение с подкреплением на основе моделей. [13]

См. также [ править ]

Ссылки [ править ]

  1. ^ Jump up to: Перейти обратно: а б Вапник, Владимир (1998), Статистическая теория обучения , Нью-Йорк: Wiley.
  2. ^ Jump up to: Перейти обратно: а б Розаско, Лоренцо (2014), Последовательность, обучаемость и регуляризация , Конспекты лекций для курса MIT 9.520.
  3. ^ Стив Ханнеке (2016). «Оптимальная выборочная сложность обучения PAC» . Дж. Мах. Учиться. Рез . 17 (1): 1319–1333. arXiv : 1507.00473 .
  4. ^ Эренфойхт, Анджей; Хаусслер, Дэвид; Кернс, Майкл; Валиант, Лесли (1989). «Общая нижняя граница количества примеров, необходимых для обучения» . Информация и вычисления . 82 (3): 247. doi : 10.1016/0890-5401(89)90002-3 .
  5. ^ Энтони, Мартин; Бартлетт, Питер Л. (2009). Обучение нейронных сетей: теоретические основы . ISBN  9780521118620 .
  6. ^ Моргенштерн, Джейми; Рафгарден, Тим (2015). О псевдоразмерности почти оптимальных аукционов . НИПС. Карран Ассошиэйтс. стр. 136–144. arXiv : 1506.03684 .
  7. ^ Балкан, Мария-Флорина ; Ханнеке, Стив; Вортман Воан, Дженнифер (2010). «Истинный образец сложности активного обучения» . Машинное обучение . 80 (2–3): 111–139. дои : 10.1007/s10994-010-5174-y .
  8. ^ Какаде, Шам (2003), «О сложности выборки обучения с подкреплением» (PDF) , докторская диссертация, Университетский колледж Лондона: Отдел вычислительной нейронауки Гэтсби.
  9. ^ Вайнзенчер, Дэниел; Маннор, Ши; Брукштейн, Альфред (2011). «Пример сложности изучения словарей» (PDF) . Журнал исследований машинного обучения . 12 : 3259–3281.
  10. ^ Кауфманн, Эмили и Кулен, Воутер М (2017). Поиск по дереву Монте-Карло по наилучшей идентификации руки . Достижения в области нейронных систем обработки информации. стр. 4897–4906. {{cite conference}}: CS1 maint: несколько имен: список авторов ( ссылка )
  11. ^ Фидельман, Пегги и Стоун, Питер (2006). Щепотка подбородка: пример обучения навыкам на ножном роботе . Чемпионат мира по футболу среди роботов. Спрингер. стр. 59–71. {{cite conference}}: CS1 maint: несколько имен: список авторов ( ссылка )
  12. ^ Верма, Накул и Брэнсон, Кристин (2015). Пример сложности изучения метрик расстояния Махаланобиса . Достижения в области нейронных систем обработки информации. стр. 2584–2592. {{cite conference}}: CS1 maint: несколько имен: список авторов ( ссылка )
  13. ^ Курутач, Танард и Клавера, Игнаси и Дуан, Ян и Тамар, Авив и Аббель, Питер (2018). «Оптимизация политики доверительного региона модели-ансамбля». arXiv : 1802.10592 [ cs.LG ]. {{cite arXiv}}: CS1 maint: несколько имен: список авторов ( ссылка )
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: e8ae57829832cc6ff4ab6f8cd34b6d42__1716540420
URL1:https://arc.ask3.ru/arc/aa/e8/42/e8ae57829832cc6ff4ab6f8cd34b6d42.html
Заголовок, (Title) документа по адресу, URL1:
Sample complexity - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)