Jump to content

Устойчивость к ошибкам (обучение PAC)

В обучении PAC терпимость к ошибкам относится к способности алгоритма обучаться , когда полученные примеры каким-либо образом повреждены. На самом деле это очень распространенная и важная проблема, поскольку во многих приложениях невозможно получить доступ к данным без помех. Шум может мешать процессу обучения на разных уровнях: алгоритм может получать данные, которые иногда были неправильно маркированы, или входные данные могут содержать ложную информацию, или классификация примеров могла быть злонамеренно искажена.

Обозначения и модель обучения Valiant

[ редактировать ]

В дальнейшем пусть будь нашим -мерное входное пространство. Позволять быть классом функций, которые мы хотим использовать, чтобы изучить -значная целевая функция определено более . Позволять быть распределением входов по . Цель алгоритма обучения это выбрать лучшую функцию так, что это минимизирует . Предположим, у нас есть функция который может измерить сложность . Позволять быть оракулом, который при каждом вызове возвращает пример и его правильная этикетка .

Когда никакой шум не искажает данные, мы можем определить обучение в настройках Valiant : [1] [2]

Определение: Мы говорим, что эффективно обучается с помощью в настройке Valiant , если существует алгоритм обучения который имеет доступ к и полином такой, что для любого и он выводит в ряде вызовов оракула, ограниченного , функция которое удовлетворяет с вероятностью по крайней мере состояние .

Далее мы определим обучаемость когда данные претерпели некоторые изменения. [3] [4] [5]

Классификация шума

[ редактировать ]

В модели классификационного шума [6] уровень шума вводится. Тогда вместо который всегда возвращает правильную метку примера , алгоритм может вызвать только неисправного оракула это перевернет ярлык с вероятностью . Как и в случае с Valiant, цель алгоритма обучения это выбрать лучшую функцию так, что это минимизирует . В приложениях трудно получить доступ к реальной стоимости , но мы предполагаем, что у нас есть доступ к его верхней границе . [7] Обратите внимание, что если мы позволим уровню шума быть , то обучение становится невозможным за любое время вычислений, поскольку каждая метка не передает никакой информации о целевой функции.

Определение: Мы говорим, что эффективно обучается с помощью в модели классификационного шума, если существует алгоритм обучения который имеет доступ к и полином такой, что для любого , и он выводит в ряде вызовов оракула, ограниченного , функция которое удовлетворяет с вероятностью по крайней мере состояние .

Обучение статистическим запросам

[ редактировать ]

Обучение статистическим запросам [8] это своего рода задача активного обучения , в которой алгоритм обучения может решить, запрашивать ли информацию о вероятности что функция правильно маркирует пример , и получает ответ с точностью в пределах допуска . Формально, всякий раз, когда алгоритм обучения вызывает оракула , он получает в качестве вероятности обратной связи , такой, что .

Определение: Мы говорим, что эффективно обучается с помощью в модели обучения статистическим запросам, если существует алгоритм обучения который имеет доступ к и полиномы , , и такой, что для любого имеют место следующие:

  1. могу оценить вовремя ;
  2. ограничен
  3. выводит модель такой, что , в ряде обращений к оракулу, ограниченному .

Обратите внимание, что параметр уверенности не фигурирует в определении обучения. Это связано с тем, что основная цель заключается в том, чтобы обеспечить алгоритму обучения небольшую вероятность отказа из-за нерепрезентативной выборки. С этого момента всегда гарантирует соответствие критерию аппроксимации , вероятность отказа больше не нужна.

Модель статистических запросов строго слабее, чем модель PAC: любой класс, эффективно обучаемый с помощью SQ, эффективно обучается с помощью PAC в присутствии классификационного шума, но существуют эффективные проблемы, изучаемые с помощью PAC, такие как четность , которые не поддаются эффективному изучению с помощью SQ. [8]

Вредоносная классификация

[ редактировать ]

В модели классификации вредоносных программ [9] противник генерирует ошибки, чтобы помешать алгоритму обучения. Этот параметр описывает ситуации возникновения пакета ошибок , которые могут возникнуть, когда в течение ограниченного времени оборудование передачи неоднократно выходит из строя. Формально алгоритм вызывает оракула который возвращает правильно помеченный пример взято, как обычно, из раздачи по входному пространству с вероятностью , но возвращается с вероятностью пример взят из дистрибутива, который не связан с . Более того, этот злонамеренно выбранный пример может быть стратегически выбран противником, знающим , , или текущий прогресс алгоритма обучения.

Определение: Учитывая границу для , мы говорим, что эффективно обучается с помощью в модели классификации вредоносных программ, если существует алгоритм обучения который имеет доступ к и полином такой, что для любого , он выводит в ряде вызовов оракула, ограниченного , функция которое удовлетворяет с вероятностью по крайней мере состояние .

Ошибки во входных данных: неоднородный случайный атрибутный шум.

[ редактировать ]

В неоднородном случайном атрибутивном шуме [10] [11] модель, алгоритм изучает логическую функцию , злонамеренный оракул может перевернуть каждый -й бит примера независимо с вероятностью .

Ошибки такого типа могут непоправимо нарушить работу алгоритма; фактически справедлива следующая теорема:

В условиях неоднородного случайного атрибутного шума алгоритм может вывести функцию такой, что только если .

См. также

[ редактировать ]
  1. ^ Валиант, LG (август 1985 г.). Обучение расчленению союзов . В IJCAI (стр. 560–566).
  2. ^ Валиант, Лесли Г. «Теория обучаемого». Сообщения ACM 27.11 (1984): 1134–1142.
  3. ^ Лэрд, PD (1988). Обучение на хороших и плохих данных . Академическое издательство Клювер.
  4. ^ Кернс, Майкл. « Эффективное устойчивое к шуму обучение на основе статистических запросов. Архивировано 3 мая 2013 г. в Wayback Machine ». Журнал ACM 45.6 (1998): 983–1006.
  5. ^ Бранк, Клиффорд А. и Майкл Дж. Паццани. « Исследование шумоустойчивых алгоритмов обучения реляционных концепций ». Материалы 8-го международного семинара по машинному обучению. 1991.
  6. ^ Кернс, М.Дж., и Вазирани, У.Ф. (1994). Введение в теорию компьютерного обучения , глава 5. MIT Press.
  7. ^ Англуин Д. и Лэрд П. (1988). Обучение на шумных примерах . Машинное обучение, 2(4), 343–370.
  8. ^ Перейти обратно: а б Кернс, М. (1998). [www.cis.upenn.edu/~mkearns/papers/sq-journal.pdf Эффективное устойчивое к шуму обучение на основе статистических запросов] . Журнал ACM, 45 (6), 983–1006.
  9. ^ Кернс, М., и Ли, М. (1993). [www.cis.upenn.edu/~mkearns/papers/malicious.pdf Обучение при наличии злонамеренных ошибок] . SIAM Journal on Computing, 22 (4), 807–837.
  10. ^ Голдман, С.А. , и Слоан, Роберт, Х. (1991). Сложность случайного атрибутного шума. Технический отчет WUCS 91 29, Вашингтонский университет, факультет компьютерных наук.
  11. ^ Слоан, Р.Х. (1989). Теория вычислительного обучения: Новые модели и алгоритмы (Докторская диссертация, Массачусетский технологический институт).
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 198ac30e73465097ff3b9cc147543a9a__1710461100
URL1:https://arc.ask3.ru/arc/aa/19/9a/198ac30e73465097ff3b9cc147543a9a.html
Заголовок, (Title) документа по адресу, URL1:
Error tolerance (PAC learning) - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)