Jump to content

Стабильность (теория обучения)

Стабильность , также известная как алгоритмическая стабильность , — это понятие в теории вычислительного обучения, описывающее, как выходные данные алгоритма машинного обучения изменяются при небольших изменениях на его входных данных. Стабильный алгоритм обучения — это алгоритм, для которого прогноз не сильно меняется при незначительном изменении обучающих данных. Например, рассмотрим алгоритм машинного обучения, который обучается распознаванию рукописных букв алфавита, используя 1000 примеров рукописных букв и их меток («от A» до «Z») в качестве обучающего набора. Один из способов изменить этот обучающий набор — исключить пример, чтобы было доступно только 999 примеров рукописных букв и их надписей. Стабильный алгоритм обучения создал бы аналогичный классификатор как с обучающими наборами из 1000 элементов, так и с 999 элементами.

Стабильность можно изучать для многих типов задач обучения, от изучения языка до обратных задач в физике и технике, поскольку это свойство процесса обучения, а не типа изучаемой информации. Изучение стабильности приобрело значение в теории компьютерного обучения в 2000-х годах, когда было показано, что оно связано с обобщением . [1] Было показано, что для больших классов алгоритмов обучения, в частности алгоритмов минимизации эмпирического риска , определенные типы устойчивости обеспечивают хорошее обобщение.

История [ править ]

Основная цель разработки системы машинного обучения — гарантировать, что алгоритм обучения будет обобщать или точно работать на новых примерах после обучения на конечном их числе. В 1990-е годы были достигнуты важные результаты в получении границ обобщения для алгоритмов обучения с учителем . Техника, исторически использовавшаяся для доказательства обобщения, заключалась в том, чтобы показать, что алгоритм непротиворечив , используя свойства равномерной сходимости эмпирических величин к их средним значениям. Этот метод был использован для получения границ обобщения для большого класса алгоритмов минимизации эмпирического риска (ERM). Алгоритм ERM — это алгоритм, который выбирает решение из пространства гипотез. таким образом, чтобы минимизировать эмпирическую ошибку на обучающем наборе .

Общий результат, доказанный Владимиром Вапником для алгоритмов бинарной классификации ERM, заключается в том, что для любой целевой функции и входного распределения любое пространство гипотез с размером VC , и обучающих примеров, алгоритм последовательен и выдаст ошибку обучения, не превышающую (плюс логарифмические коэффициенты) от истинной ошибки. Позже результат был распространен на почти ERM-алгоритмы с классами функций, не имеющими уникальных минимизаторов.

Работа Вапника, используя то, что стало известно как теория VC , установила связь между обобщением алгоритма обучения и свойствами пространства гипотез. изучаемых функций. Однако эти результаты нельзя было применить к алгоритмам с пространствами гипотез неограниченной VC-размерности. Другими словами, эти результаты нельзя было применить, когда изучаемая информация имела сложность, слишком большую для измерения. Некоторые из простейших алгоритмов машинного обучения — например, для регрессии — имеют пространства гипотез с неограниченной VC-размерностью. Другой пример — алгоритмы изучения языка, которые могут создавать предложения произвольной длины.

Анализ устойчивости был разработан в 2000-х годах для теории вычислительного обучения и является альтернативным методом получения границ обобщения. Стабильность алгоритма — это свойство процесса обучения, а не прямое свойство пространства гипотез. , и его можно оценить в алгоритмах, которые имеют пространства гипотез с неограниченным или неопределенным VC-размером, например, ближайший сосед. Стабильный алгоритм обучения — это алгоритм, для которого изученная функция не сильно меняется при небольшом изменении обучающего набора, например, при исключении примера. Мера ошибки «Оставить одно исключено» используется в алгоритме перекрестной проверки «Оставить одно исключенным» (CVloo) для оценки устойчивости алгоритма обучения по отношению к функции потерь. Таким образом, анализ стабильности — это применение анализа чувствительности к машинному обучению.

Сводка классических результатов

  • Начало 1900-х годов . Стабильность в теории обучения раньше всего описывалась как непрерывность карты обучения. , traced to Andrey Nikolayevich Tikhonov [ нужна ссылка ] .
  • 1979 - Деврой и Вагнер заметили, что поведение алгоритма с исключением одного связано с его чувствительностью к небольшим изменениям в выборке. [2]
  • 1999 — Кернс и Рон обнаружили связь между конечной VC-размерностью и стабильностью. [3]
  • 2002 - В знаковой статье Буске и Елисеев предложили понятие единой гипотезы устойчивости алгоритма обучения и показали, что это подразумевает низкую ошибку обобщения. Однако равномерная устойчивость гипотезы является сильным условием, которое не применимо к большим классам алгоритмов, включая алгоритмы ERM с пространством гипотез всего из двух функций. [4]
  • 2002 — Кутин и Нийоги расширили результаты Буске и Елисеева, предоставив оценки обобщения для нескольких более слабых форм устойчивости, которые они назвали устойчивостью почти всюду . Кроме того, они сделали первый шаг в установлении взаимосвязи между стабильностью и согласованностью алгоритмов ERM в настройке «Вероятно приблизительно правильно» (PAC). [5]
  • 2004 г. - Поджо и др. доказали общую взаимосвязь между стабильностью и согласованностью ERM. Они предложили статистическую форму стабильности по принципу исключения одного, которую они назвали стабильностью CVEEEloo , и показали, что она а) достаточна для обобщения в ограниченных классах потерь и б) необходима и достаточна для согласованности (и, следовательно, обобщения) алгоритмов ERM. для определенных функций потерь, таких как квадратичная потеря, абсолютное значение и потеря двоичной классификации. [6]
  • 2010 - Шалев Шварц и др. заметил проблемы с исходными результатами Вапника из-за сложных отношений между пространством гипотез и классом потерь. Они обсуждают понятия стабильности, охватывающие различные классы потерь и разные типы обучения, контролируемого и неконтролируемого. [7]
  • 2016 - Мориц Хардт и др. доказанная стабильность градиентного спуска при определенных предположениях относительно гипотезы и количестве раз, когда каждый экземпляр используется для обновления модели. [8]

Предварительные определения [ править ]

Мы определяем несколько терминов, связанных с обучающими наборами алгоритмов обучения, чтобы затем можно было определить стабильность несколькими способами и представить теоремы из этой области.

Алгоритм машинного обучения, также известный как карта обучения. , отображает набор обучающих данных, который представляет собой набор помеченных примеров. , на функцию от к , где и находятся в том же пространстве обучающих примеров. Функции выбираются из гипотетического пространства функций, называемых .

Обучающий набор, на котором обучается алгоритм, определяется как

и имеет размер в

взят iid из неизвестного дистрибутива D.

Таким образом, карта обучения определяется как отображение из в , отображение обучающего набора на функцию от к . Здесь мы рассматриваем только детерминированные алгоритмы, в которых симметричен относительно , т.е. не зависит от порядка элементов в обучающем наборе. Кроме того, мы предполагаем, что все функции измеримы и все множества счетны.

Потеря гипотезы что касается примера затем определяется как .

Эмпирическая ошибка является .

Истинная ошибка является

Учитывая обучающий набор S размера m, мы построим для всех i = 1....,m модифицированные обучающие наборы следующим образом:

  • Удалив i-й элемент

  • Заменив i-й элемент

Определения стабильности [ править ]

Гипотеза Стабильность

Алгоритм имеет устойчивость гипотезы β относительно функции потерь V, если выполняется следующее:

Устойчивость гипотезы по точкам [ править ]

Алгоритм имеет поточечную устойчивость гипотезы β относительно функции потерь V, если выполняется следующее:

Стабильность ошибок [ править ]

Алгоритм имеет устойчивость к ошибкам β относительно функции потерь V, если выполняется следующее:

Равномерная стабильность [ править ]

Алгоритм имеет равномерную устойчивость β относительно функции потерь V, если выполняется следующее:

Вероятностная версия равномерной устойчивости β:

Алгоритм называется устойчивым , если значение уменьшается по мере .

Перекрестная проверка с исключением одного ( Стабильность CVloo )

Алгоритм имеет CVloo-стабильность β относительно функции потерь V, если выполняется следующее:

Определение стабильности (CVloo) эквивалентно устойчивости поточечной гипотезы, рассмотренной ранее.

Ожидаемая ошибка пропуска одного ( ) Стабильность [ править ]

Алгоритм имеет устойчивость, если для каждого n существует и такой, что:

, с и стремится к нулю для

теоремы Классические

От Буске и Елисеева (02) :

Для алгоритмов симметричного обучения с ограниченными потерями, если алгоритм имеет равномерную стабильность с вероятностным определением, приведенным выше, то алгоритм обобщает.

Равномерная стабильность — это строгое условие, которому удовлетворяют не все алгоритмы, но, что удивительно, ему соответствует большой и важный класс алгоритмов регуляризации.В статье дана граница обобщения.

Из Мукерджи и др. (06) :

  • Для симметричных алгоритмов обучения с ограниченными потерями, если алгоритм имеет как стабильность перекрестной проверки с исключением одного (CVloo), так и ошибку ожидаемого исключения одного ( ) Стабильность определена выше, тогда алгоритм обобщается.
  • Ни одно из условий само по себе не является достаточным для обобщения. Однако оба вместе обеспечивают обобщение (а обратное неверно).
  • В частности, для алгоритмов ERM (скажем, для потери квадратов) стабильность перекрестной проверки с исключением одного (CVloo) необходима и достаточна для обеспечения согласованности и обобщения.

Это важный результат для основ теории обучения, поскольку он показывает, что два ранее несвязанных свойства алгоритма, стабильность и непротиворечивость, эквивалентны для ERM (и некоторых функций потерь).В статье дана граница обобщения.

Стабильные алгоритмы [ править ]

Это список алгоритмов, которые доказали свою стабильность, и статья, в которой приводятся соответствующие границы обобщения.

  • Линейная регрессия [9]
  • Классификатор k-NN с функцией потерь {0-1}. [2]
  • Классификация машины опорных векторов (SVM) с ограниченным ядром, где регуляризатор является нормой в гильбертовом пространстве воспроизводящего ядра. Большая константа регуляризации приводит к хорошей стабильности. [4]
  • Классификация SVM с мягкой маржой. [4]
  • Регуляризованная регрессия наименьших квадратов. [4]
  • Алгоритм минимальной относительной энтропии для классификации. [4]
  • Вариант упаковки регуляризаторов с номером регрессоров увеличивается с . [10]
  • Многоклассовая классификация SVM. [10]
  • Все алгоритмы обучения с регуляризацией Тихонова удовлетворяют критериям равномерной устойчивости и, следовательно, являются обобщаемыми. [11]

Ссылки [ править ]

  1. ^ Буске, Оливье; Елисеев, Андре (2002). «Стабильность и обобщение» . Журнал исследований машинного обучения . 2 (март): 499–526. ISSN   1533-7928 .
  2. ^ Jump up to: Перейти обратно: а б Л. Деврой и Вагнер, Границы производительности без распределения для потенциальных правил функций, IEEE Trans. Инф. Теория 25(5) (1979) 601–604.
  3. ^ М. Кернс и Д. Рон , Алгоритмическая стабильность и границы проверки работоспособности для перекрестной проверки с исключением одного, Neural Comput. 11(6) (1999) 1427–1453.
  4. ^ Jump up to: Перейти обратно: а б с д и О. Буске и А. Елисеева. Стабильность и генерализация. Дж. Мах. Учиться. Рез., 2:499–526, 2002.
  5. ^ С. Кутин и П. Нийоги, Почти везде алгоритмическая стабильность и ошибка обобщения, Технический отчет TR-2002-03, Чикагский университет (2002).
  6. ^ С. Мукерджи, П. Нийоги, Т. Поджо и Р. М. Рифкин. Теория обучения: стабильность достаточна для обобщения и необходима и достаточна для последовательности минимизации эмпирического риска. Адв. Вычислить. Матем., 25(1-3):161–193, 2006.
  7. ^ Шалев Шварц, С., Шамир, О., Сребро, Н., Шридхаран, К., Обучаемость, стабильность и равномерная конвергенция, Журнал исследований машинного обучения, 11 (октябрь): 2635-2670, 2010.
  8. ^ Мориц Хардт, Бенджамин Рехт, Йорам Сингер, Тренируйтесь быстрее, лучше обобщайте: стабильность стохастического градиентного спуска, ICML 2016.
  9. ^ Елисеев, А. Исследование алгоритмической стабильности и их отношение к обобщениям. Технический отчет. (2000)
  10. ^ Jump up to: Перейти обратно: а б Рифкин, Р. Все старое снова новое: свежее посмотрите на исторические подходы в машинном обучении. доктор философии Диссертация, Массачусетский технологический институт, 2002 г.
  11. ^ Росаско, Л. и Поджио, Т. Устойчивость тихоновской регуляризации , 2009 г.

Дальнейшее чтение [ править ]

  • С.Кутин и П.Ниёги.Почти всюду алгоритмическая устойчивость и ошибка обобщения. В Proc. УАИ 18, 2002 г.
  • С. Рахлин, С. Мукерджи и Т. Поджо. Стабильность приводит к теории обучения. Анализ и приложения, 3(4):397–419, 2005 г.
  • В. Н. Вапник. Природа статистической теории обучения. Спрингер, 1995 г.
  • Вапник В. Статистическая теория обучения. Уайли, Нью-Йорк, 1998 г.
  • Поджио Т., Рифкин Р., Мукерджи С. и Нийоги П., «Теория обучения: общие условия прогнозирования», Nature, Vol. 428, 419-422, 2004 г.
  • Андре Елисеев, Теодорос Евгениу, Массимилиано Понтил, Стабильность алгоритмов рандомизированного обучения, Журнал исследований машинного обучения 6, 55–79, 2010 г.
  • Елисеев, А. Понтил, М., Ошибка исключения и стабильность алгоритмов обучения с приложениями, НАУЧНАЯ СЕРИЯ НАТО ПОДСЕРИЯ III КОМПЬЮТЕРНЫЕ И СИСТЕМНЫЕ НАУКИ, 2003, ТОМ 190, страницы 111-130
  • Шалев Шварц С., Шамир О., Сребро Н., Шридхаран К., Обучаемость, стабильность и равномерная конвергенция, Журнал исследований машинного обучения, 11 (октябрь): 2635-2670, 2010 г.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: ff472fb395c418b1051083b6a03f6402__1718210940
URL1:https://arc.ask3.ru/arc/aa/ff/02/ff472fb395c418b1051083b6a03f6402.html
Заголовок, (Title) документа по адресу, URL1:
Stability (learning theory) - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)