Vapnik–Chervonenkis dimension
В теории Вапника-Червоненкиса измерение Вапника -Червоненкиса (VC) является мерой размера (емкости, сложности, выразительной силы, богатства или гибкости) класса множеств. Это понятие можно распространить на классы бинарных функций. Она определяется как мощность наибольшего набора точек, которые алгоритм может разрушить . Это означает, что алгоритм всегда может найти идеальный классификатор для любой маркировки хотя бы одной конфигурации этих точек данных. Первоначально его определили Владимир Вапник и Алексей Червоненкис . [1]
Неформально, мощность классификационной модели связана с тем, насколько сложной она может быть. Например, рассмотрим определение порога высокой степени полинома : если результат полинома выше нуля, эта точка классифицируется как положительная, в противном случае — как отрицательная. Полином высокой степени может быть волнистым, поэтому он может хорошо соответствовать заданному набору обучающих точек. Но можно ожидать, что классификатор будет допускать ошибки и по другим пунктам, поскольку он слишком шаткий. Такой полином имеет высокую емкость. Гораздо более простой альтернативой является определение порога линейной функции. Эта функция может не подходить для обучающего набора, поскольку имеет низкую пропускную способность. Ниже это понятие емкости становится более строгим.
Определения
[ редактировать ]Измерение VC семейства множеств
[ редактировать ]Позволять быть семейством множеств (набором множеств) и набор. Их пересечение определяется как следующее семейство множеств:
Мы говорим, что набор разрушен если содержит все подмножества , то есть:
Измерение венчурного капитала из — мощность наибольшего множества, разбитого . Если сколь угодно большие множества можно разбить, размерность VC равна .
Измерение VC модели классификации
[ редактировать ]Модель бинарной классификации с некоторым вектором параметров Говорят, что он разрушает набор обычно расположенных точек данных если для каждого присвоения меток этим точкам существует такая, что модель не делает ошибок при оценке этого набора точек данных [ нужна ссылка ] .
Размерность модели VC — максимальное количество точек, которые можно расположить так, чтобы разбивает их. Более формально, это максимальный кардинал так что существует общерасположенный набор точек данных мощности который может быть разрушен .
Примеры
[ редактировать ]- — постоянный классификатор (без параметров); Его размерность VC равна 0, поскольку он не может разрушить ни одну точку. В общем, размерность VC конечной модели классификации, которая может возвращать не более различных классификаторах, не более (это верхняя граница размерности VC; лемма Зауэра–Шела дает нижнюю оценку размерности).
- — однопараметрический пороговый классификатор действительных чисел; то есть для определенного порога , классификатор возвращает 1, если входное число больше, чем и 0 в противном случае. Размер венчурного капитала равен 1, потому что: (а) Он может разрушить одну точку. Для каждой точки , классификатор помечает его как 0, если и помечает его как 1, если . (б) Он не может разбить все наборы с двумя очками. Если для каждого набора из двух чисел меньшее число помечено 1, то и большее должно быть помечено 1, поэтому не все обозначения возможны.
- — однопараметрический интервальный классификатор действительных чисел; т.е. по определенному параметру , классификатор возвращает 1, если входное число находится в интервале и 0 в противном случае. Размер венчурного капитала равно 2, потому что: (a) Это может разрушить некоторые наборы из двух точек. Например, для каждого набора , классификатор помечает его как (0,0), если или если , как (1,0), если , как (1,1), если , и как (0,1), если . (б) Он не может разрушить ни один набор из трех пунктов. Для каждого набора из трех чисел, если наименьшее и наибольшее число помечены цифрой 1, то среднее число также должно быть помечено цифрой 1, поэтому не все обозначения возможны.
- — прямая линия как модель классификации точек на двумерной плоскости (это модель, используемая перцептроном ) . Линия должна отделять положительные точки данных от отрицательных точек данных. Существуют наборы из трех точек, которые действительно можно разбить с помощью этой модели (любые три точки, которые не лежат на одной прямой, можно разбить). Однако ни один набор из 4 точек не может быть разбит: по теореме Радона любые четыре точки можно разделить на два подмножества с пересекающимися выпуклыми оболочками , поэтому невозможно отделить одно из этих двух подмножеств от другого. Таким образом, размерность VC этого конкретного классификатора равна 3. Важно помнить, что, хотя можно выбрать любое расположение точек, расположение этих точек не может измениться при попытке разбить его для какого-либо присвоения метки. Обратите внимание, только 3 из 2 3 = Для трех точек показаны 8 возможных назначений меток.
- — однопараметрический синус- классификатор, т. е. для некоторого параметра , классификатор возвращает 1, если входное число имеет и 0 в противном случае. Размер венчурного капитала бесконечно, поскольку может разрушить любое конечное подмножество множества . [2] : 57
3 очка разбиты | 4 балла невозможно |
Использование
[ редактировать ]В статистической теории обучения
[ редактировать ]Измерение VC может предсказать вероятностную верхнюю границу ошибки теста модели классификации. Вапник [3] доказал, что вероятность отклонения тестовой ошибки (т. е. риска с функцией потерь 0–1) от верхней границы (на данных, которые взяты из того же распределения, что и обучающий набор), определяется выражением:
где - измерение VC модели классификации, , и — размер обучающего набора (ограничение: эта формула действительна, когда . Когда больше, ошибка теста может быть намного выше ошибки обучения. Это происходит из-за переобучения ).
Измерение VC также появляется в границах сложности выборки . Пространство бинарных функций с размерностью VC. можно изучить с помощью: [4] : 73
образцы, где это ошибка обучения и — вероятность отказа. Таким образом, сложность выборки является линейной функцией размерности VC пространства гипотез.
Размерность ВК является одним из критических параметров размера ε-сетей , определяющим сложность алгоритмов аппроксимации на их основе; Наборы диапазонов без конечной размерности VC могут вообще не иметь конечных ε-сетей.
Границы
[ редактировать ]- Измерение VC двойного семейства множеств строго меньше, чем , и это в лучшем случае.
- Размерность VC конечного семейства множеств самое большее . [2] : 56 Это потому, что по определению.
- Учитывая набор-семейство , определять как семейство множеств, содержащее все пересечения элементы . Затем: [2] : 57
- Учитывая набор-семейство и элемент , определять где обозначает симметричную разность множеств . Затем: [2] : 58
Примеры классов VC
[ редактировать ]Размерность VC конечной проективной плоскости
[ редактировать ]Конечная проективная плоскость порядка n — это совокупность n 2 + n + 1 наборов (называемых «линиями») по n 2 + n + 1 элементов (называемых «точками»), для которых:
- В каждой строке ровно n + 1 точка.
- Каждая прямая пересекает любую другую ровно в одной точке.
- Каждая точка содержится ровно в n + 1 строке.
- Каждая точка находится ровно на одной общей линии с каждой другой точкой.
- По крайней мере четыре точки не лежат на одной прямой.
Размерность VC конечной проективной плоскости равна 2. [5]
Доказательство : (а) Для каждой пары различных точек существует одна линия, содержащая обе из них, строки, содержащие только одну из них, и строки, не содержащие ни одной из них, поэтому каждое множество размера 2 разбито. (б) Для любой тройки из трех различных точек, если существует линия x , содержащая все три, то не существует линии y , содержащей ровно две точки (поскольку тогда x и y пересекались бы в двух точках, что противоречит определению проективной плоскости). Следовательно, ни один набор размера 3 не будет разрушен.
Размерность VC повышающего классификатора
[ редактировать ]Предположим, у нас есть базовый класс простых классификаторов, размерность VC которых равна .
Мы можем построить более мощный классификатор, объединив несколько разных классификаторов из ; этот метод называется повышением . Формально, учитывая классификаторы и вектор веса , мы можем определить следующий классификатор:
Размерность VC набора всех таких классификаторов (для всех выборок классификаторы из и весовой вектор из ), предполагая , не более: [4] : 108–109
VC-размерность нейронной сети
[ редактировать ]Этот раздел нуждается в дополнительных цитатах для проверки . ( Май 2021 г. ) |
Нейронная сеть описывается ориентированным ациклическим графом G ( V , E ), где:
- V — набор узлов. Каждый узел представляет собой простую вычислительную ячейку.
- E — множество ребер. Каждое ребро имеет вес.
- Вход в сеть представлен источниками графа — узлами без входящих ребер.
- Выход сети представлен стоками графа — узлами без исходящих ребер.
- Каждый промежуточный узел получает на вход взвешенную сумму выходов узлов на его входящих ребрах, где веса — это веса на ребрах.
- Каждый промежуточный узел выводит определенную возрастающую функцию своего входа, например, знаковую функцию или сигмовидную функцию . Эта функция называется функцией активации .
Размерность нейронной сети VC ограничена следующим образом: [4] : 234–235
- Если функция активации является знаковой функцией, а веса общие, то размерность VC не превышает .
- Если функция активации является сигмовидной функцией, а веса общие, то размерность VC не менее и самое большее .
- Если веса происходят из конечного семейства (например, веса представляют собой действительные числа, которые могут быть представлены в компьютере максимум 32 битами), то для обеих функций активации размерность VC не превышает .
Обобщения
[ редактировать ]Размерность VC определена для пространств бинарных функций (функций до {0,1}). Было предложено несколько обобщений для пространств небинарных функций.
- Для многоклассовых функций (например, функций {0,..., n-1 }) размерность Натараяна [6] можно использовать. Бен Дэвид и др. [7] дать обобщение этого понятия.
- Для функций с действительным знаком (например, функций с действительным интервалом [0,1]) псевдоразмерность Полларда [8] [9] [10] можно использовать.
- Сложность Радемахера дает границы, аналогичные VC, и иногда может дать больше понимания, чем расчеты размерностей VC, в таких статистических методах, например, с использованием ядер. [ нужна ссылка ] .
- Емкость памяти (иногда эквивалентная емкость памяти) дает нижнюю границу емкости, а не верхнюю границу (см., например: Искусственная нейронная сеть#Емкость ) и, следовательно, указывает точку потенциального переобучения.
См. также
[ редактировать ]- Функция роста
- Лемма Зауэра-Шела , ограничение количества множеств в системе множеств с точки зрения размерности VC.
- Теорема Карпинского–Макинтайра , [11] граница размерности VC общих формул Пфаффа.
Сноски
[ редактировать ]- ^ Вапник В.Н.; Червоненкис, А.Я. (1971). «О равномерной сходимости относительных частот событий к их вероятностям». Теория вероятностей и ее приложения . 16 (2): 264. дои : 10.1137/1116025 . Это английский перевод русской статьи Б. Секлера: «О равномерной сходимости относительных частот событий к их вероятностям». Докл. Акад. Наук . 181 (4): 781. 1968. Перевод был воспроизведен как: Вапник В.Н.; Червоненкис, А.Я. (2015). «О равномерной сходимости относительных частот событий к их вероятностям». Меры сложности . п. 11. дои : 10.1007/978-3-319-21852-6_3 . ISBN 978-3-319-21851-9 .
- ^ Перейти обратно: а б с д Мори, Мехриар ; Ростамизаде, Афшин; Талвалкар, Амит (2012). Основы машинного обучения . США, Массачусетс: MIT Press. ISBN 9780262018258 .
- ^ Вапник 2000 .
- ^ Перейти обратно: а б с Шалев-Шварц, Шай; Бен-Давид, Шай (2014). Понимание машинного обучения – от теории к алгоритмам . Издательство Кембриджского университета. ISBN 9781107057135 .
- ^ Алон, Н.; Хаусслер, Д.; Вельцль, Э. (1987). «Разбиение и геометрическое вложение пространств значений конечной размерности Вапника-Червоненкиса». Материалы третьего ежегодного симпозиума по вычислительной геометрии – SCG '87 . п. 331. дои : 10.1145/41958.41994 . ISBN 978-0897912310 . S2CID 7394360 .
- ^ Натараджан 1989 .
- ^ Бен-Дэвид, Чеза-Бьянки и Лонг 1992 .
- ^ Поллард 1984 .
- ^ Энтони и Бартлетт 2009 .
- ^ Моргенштерн и Рафгарден 2015 .
- ^ Карпински и Макинтайр 1997 .
Ссылки
[ редактировать ]- Мур, Эндрю. «Учебное пособие по измерениям венчурного капитала» (PDF) .
- Вапник, Владимир (2000). Природа статистической теории обучения . Спрингер.
- Блюмер, А.; Эренфойхт, А.; Хаусслер, Д.; Вармут, МК (1989). «Обучаемость и измерение Вапника – Червоненкиса» (PDF) . Журнал АКМ . 36 (4): 929–865. дои : 10.1145/76359.76371 . S2CID 1138467 .
- Берджес, Кристофер. «Руководство по SVM для распознавания образов» (PDF) . Майкрософт . (содержит информацию также для измерения VC)
- Шазель, Бернар . «Метод противоречий» .
- Натараджан, Б.К. (1989). «Об изучении множеств и функций» . Машинное обучение . 4 : 67–97. дои : 10.1007/BF00114804 .
- Бен-Давид, Шай; Чеза-Бьянки, Николо; Лонг, Филип М. (1992). «Характеристики обучаемости классов {O,…, n }-значных функций». Материалы пятого ежегодного семинара по теории вычислительного обучения – COLT '92 . п. 333. дои : 10.1145/130385.130423 . ISBN 089791497X .
- Поллард, Д. (1984). Сходимость случайных процессов . Спрингер. ISBN 9781461252542 .
- Энтони, Мартин; Бартлетт, Питер Л. (2009). Обучение нейронных сетей: теоретические основы . ISBN 9780521118620 .
- Моргенштерн, Джейми Х.; Рафгарден, Тим (2015). О псевдоразмерности почти оптимальных аукционов . НИПС. arXiv : 1506.03684 . Бибкод : 2015arXiv150603684M .
- Карпински, Марек; Макинтайр, Ангус (февраль 1997 г.). «Полиномиальные границы размерности VC сигмоидальных и общих пфаффовых нейронных сетей» . Журнал компьютерных и системных наук . 54 (1): 169–176. дои : 10.1006/jcss.1997.1477 .