Устойчивость к ошибкам (обучение PAC)
Часть серии о |
Машинное обучение и интеллектуальный анализ данных |
---|
В обучении PAC терпимость к ошибкам относится к способности алгоритма обучаться , когда полученные примеры каким-либо образом повреждены. На самом деле это очень распространенная и важная проблема, поскольку во многих приложениях невозможно получить доступ к данным без помех. Шум может мешать процессу обучения на разных уровнях: алгоритм может получать данные, которые иногда были неправильно маркированы, или входные данные могут содержать ложную информацию, или классификация примеров могла быть злонамеренно искажена.
Обозначения и модель обучения Valiant
[ редактировать ]В дальнейшем пусть будь нашим -мерное входное пространство. Позволять быть классом функций, которые мы хотим использовать, чтобы изучить -значная целевая функция определено более . Позволять быть распределением входов по . Цель алгоритма обучения это выбрать лучшую функцию так, что это минимизирует . Предположим, у нас есть функция который может измерить сложность . Позволять быть оракулом, который при каждом вызове возвращает пример и его правильная этикетка .
Когда никакой шум не искажает данные, мы можем определить обучение в настройках Valiant : [1] [2]
Определение: Мы говорим, что эффективно обучается с помощью в настройке Valiant , если существует алгоритм обучения который имеет доступ к и полином такой, что для любого и он выводит в ряде вызовов оракула, ограниченного , функция которое удовлетворяет с вероятностью по крайней мере состояние .
Далее мы определим обучаемость когда данные претерпели некоторые изменения. [3] [4] [5]
Классификация шума
[ редактировать ]В модели классификационного шума [6] уровень шума вводится. Тогда вместо который всегда возвращает правильную метку примера , алгоритм может вызвать только неисправного оракула это перевернет ярлык с вероятностью . Как и в случае с Valiant, цель алгоритма обучения это выбрать лучшую функцию так, что это минимизирует . В приложениях трудно получить доступ к реальной стоимости , но мы предполагаем, что у нас есть доступ к его верхней границе . [7] Обратите внимание, что если мы позволим уровню шума быть , то обучение становится невозможным за любое время вычислений, поскольку каждая метка не передает никакой информации о целевой функции.
Определение: Мы говорим, что эффективно обучается с помощью в модели классификационного шума, если существует алгоритм обучения который имеет доступ к и полином такой, что для любого , и он выводит в ряде вызовов оракула, ограниченного , функция которое удовлетворяет с вероятностью по крайней мере состояние .
Обучение статистическим запросам
[ редактировать ]Обучение статистическим запросам [8] это своего рода задача активного обучения , в которой алгоритм обучения может решить, запрашивать ли информацию о вероятности что функция правильно маркирует пример , и получает ответ с точностью в пределах допуска . Формально, всякий раз, когда алгоритм обучения вызывает оракула , он получает в качестве вероятности обратной связи , такой, что .
Определение: Мы говорим, что эффективно обучается с помощью в модели обучения статистическим запросам, если существует алгоритм обучения который имеет доступ к и полиномы , , и такой, что для любого имеют место следующие:
- могу оценить вовремя ;
- ограничен
- выводит модель такой, что , в ряде обращений к оракулу, ограниченному .
Обратите внимание, что параметр уверенности не фигурирует в определении обучения. Это связано с тем, что основная цель заключается в том, чтобы обеспечить алгоритму обучения небольшую вероятность отказа из-за нерепрезентативной выборки. С этого момента всегда гарантирует соответствие критерию аппроксимации , вероятность отказа больше не нужна.
Модель статистических запросов строго слабее, чем модель PAC: любой класс, эффективно обучаемый с помощью SQ, эффективно обучается с помощью PAC в присутствии классификационного шума, но существуют эффективные проблемы, изучаемые с помощью PAC, такие как четность , которые не поддаются эффективному изучению с помощью SQ. [8]
Вредоносная классификация
[ редактировать ]В модели классификации вредоносных программ [9] противник генерирует ошибки, чтобы помешать алгоритму обучения. Этот параметр описывает ситуации возникновения пакета ошибок , которые могут возникнуть, когда в течение ограниченного времени оборудование передачи неоднократно выходит из строя. Формально алгоритм вызывает оракула который возвращает правильно помеченный пример взято, как обычно, из раздачи по входному пространству с вероятностью , но возвращается с вероятностью пример взят из дистрибутива, который не связан с . Более того, этот злонамеренно выбранный пример может быть стратегически выбран противником, знающим , , или текущий прогресс алгоритма обучения.
Определение: Учитывая границу для , мы говорим, что эффективно обучается с помощью в модели классификации вредоносных программ, если существует алгоритм обучения который имеет доступ к и полином такой, что для любого , он выводит в ряде вызовов оракула, ограниченного , функция которое удовлетворяет с вероятностью по крайней мере состояние .
Ошибки во входных данных: неоднородный случайный атрибутный шум.
[ редактировать ]В неоднородном случайном атрибутивном шуме [10] [11] модель, алгоритм изучает логическую функцию , злонамеренный оракул может перевернуть каждый -й бит примера независимо с вероятностью .
Ошибки такого типа могут непоправимо нарушить работу алгоритма; фактически справедлива следующая теорема:
В условиях неоднородного случайного атрибутного шума алгоритм может вывести функцию такой, что только если .
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Валиант, LG (август 1985 г.). Обучение расчленению союзов . В IJCAI (стр. 560–566).
- ^ Валиант, Лесли Г. «Теория обучаемого». Сообщения ACM 27.11 (1984): 1134–1142.
- ^ Лэрд, PD (1988). Обучение на хороших и плохих данных . Академическое издательство Клювер.
- ^ Кернс, Майкл. « Эффективное устойчивое к шуму обучение на основе статистических запросов. Архивировано 3 мая 2013 г. в Wayback Machine ». Журнал ACM 45.6 (1998): 983–1006.
- ^ Бранк, Клиффорд А. и Майкл Дж. Паццани. « Исследование шумоустойчивых алгоритмов обучения реляционных концепций ». Материалы 8-го международного семинара по машинному обучению. 1991.
- ^ Кернс, М.Дж., и Вазирани, У.Ф. (1994). Введение в теорию компьютерного обучения , глава 5. MIT Press.
- ^ Англуин Д. и Лэрд П. (1988). Обучение на шумных примерах . Машинное обучение, 2(4), 343–370.
- ^ Перейти обратно: а б Кернс, М. (1998). [www.cis.upenn.edu/~mkearns/papers/sq-journal.pdf Эффективное устойчивое к шуму обучение на основе статистических запросов] . Журнал ACM, 45 (6), 983–1006.
- ^ Кернс, М., и Ли, М. (1993). [www.cis.upenn.edu/~mkearns/papers/malicious.pdf Обучение при наличии злонамеренных ошибок] . SIAM Journal on Computing, 22 (4), 807–837.
- ^ Голдман, С.А. , и Слоан, Роберт, Х. (1991). Сложность случайного атрибутного шума. Технический отчет WUCS 91 29, Вашингтонский университет, факультет компьютерных наук.
- ^ Слоан, Р.Х. (1989). Теория вычислительного обучения: Новые модели и алгоритмы (Докторская диссертация, Массачусетский технологический институт).