Jump to content

Теорема Ковера

Теорема Кавера — это утверждение в теории вычислительного обучения и одна из основных теоретических мотиваций для использования нелинейных методов ядра в приложениях машинного обучения . Она названа так в честь теоретика информации Томаса М. Ковера , который сформулировал ее в 1965 году, назвав ее теоремой о считающей функции .

Теорема выражает число однородно линейно разделимых множеств указывает на размеры как явная считающая функция от количества очков и размерность .

В качестве необходимого и достаточного условия требуется, чтобы точки находились в общем положении . Проще говоря, это означает, что точки должны быть максимально линейно независимыми (несовмещенными). Это условие выполняется «с вероятностью 1» или почти наверняка для случайных наборов точек, тогда как для реальных данных оно может быть легко нарушено, поскольку они часто структурированы по многообразиям меньшей размерности в пространстве данных.

Функция следует двум различным режимам в зависимости от взаимоотношений между и .

  • Для , функция является экспоненциальной по . По сути, это означает, что любой набор помеченных точек в общем положении и в количестве, не превышающем размерность + 1, линейно разделим; на жаргоне говорят, что линейный классификатор разбивает любой набор точек с . Эта предельная величина известна также как размерность Вапника-Червоненкиса линейного классификатора.
  • Для , считающая функция начинает расти менее чем экспоненциально. Это означает, что при наличии выборки фиксированного размера , для большей размерности более вероятно, что случайное множество помеченных точек является линейно разделимым. И наоборот, при фиксированной размерности для больших размеров выборки количество линейно разделимых наборов случайных точек будет меньше, или, другими словами, вероятность найти линейно разделимую выборку будет уменьшаться с увеличением .

Следствием теоремы является то, что, учитывая набор обучающих данных, которые не являются линейно разделимыми , можно с высокой вероятностью преобразовать его в обучающий набор, который является линейно разделимым, проецируя его в многомерное пространство посредством некоторого нелинейного преобразования . или:

Сложная задача классификации образов, нелинейно поставленная в многомерном пространстве, с большей вероятностью будет линейно разделимой, чем в низкомерном пространстве, при условии, что пространство не густонаселено.

Доказательство

[ редактировать ]

Доказательство теоремы Ковера о считающей функции можно получить из рекуррентного соотношения

Чтобы показать это, при фиксированном , увеличение может превратить набор точек из неразделимых в разделимые, можно использовать детерминированное отображение : предположим, что существуют точки. Поднимите их на вершины симплекса в многомерное реальное пространство. Поскольку каждое разделение выборок на два набора можно разделить линейным разделителем , отсюда следует это свойство.

На левом изображении показаны 100 точек в двумерном реальном пространстве, помеченные в зависимости от того, находятся ли они внутри или за пределами круговой области. Эти помеченные точки не являются линейно разделимыми, но если перенести их в трехмерное пространство с помощью трюка с ядром , точки станут линейно разделимыми. Обратите внимание, что в этом случае и во многих других случаях не будет необходимости поднимать точки в 99-мерное пространство, как предполагается в объяснении.

См. также

[ редактировать ]
  • Хайкин, Саймон (2009). Нейронные сети и обучающиеся машины (Третье изд.). Река Аппер-Сэддл, Нью-Джерси: Pearson Education Inc., стр. 232–236. ISBN  978-0-13-147139-9 .
  • Обложка, ТМ (1965). «Геометрические и статистические свойства систем линейных неравенств с приложениями в распознавании образов» (PDF) . Транзакции IEEE на электронных компьютерах . EC-14 (3): 326–334. дои : 10.1109/pgec.1965.264137 . S2CID   18251470 . Архивировано из оригинала (PDF) 20 декабря 2019 г.
  • Мехротра, К.; Мохан, СК; Ранка, С. (1997). Элементы искусственных нейронных сетей (2-е изд.). МТИ Пресс. ISBN  0-262-13328-8 . (раздел 3.5)


Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: df3a876ab131dfb0496103466710246d__1721204340
URL1:https://arc.ask3.ru/arc/aa/df/6d/df3a876ab131dfb0496103466710246d.html
Заголовок, (Title) документа по адресу, URL1:
Cover's theorem - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)