Линейная разделимость

В евклидовой геометрии линейная разделимость — это свойство двух наборов точек . Это легче всего визуализировать в двух измерениях ( евклидова плоскость ), представляя, что один набор точек окрашен в синий цвет, а другой набор точек — в красный. Эти два множества линейно разделимы, если на плоскости существует хотя бы одна прямая , у которой все синие точки находятся на одной стороне линии, а все красные точки — на другой стороне. Эта идея немедленно обобщается на евклидовы пространства более высокой размерности, если линия заменяется гиперплоскостью .
Проблема определения того, является ли пара множеств линейно разделимой, и нахождения разделяющей гиперплоскости, если да, возникает в нескольких областях. В статистике и машинном обучении классификация определенных типов данных является проблемой, для которой существуют хорошие алгоритмы, основанные на этой концепции.
Математическое определение
[ редактировать ]Позволять и — два набора точек в n -мерном евклидовом пространстве. Затем и если линейно разделимы, существует n + 1 действительных чисел , такой, что каждая точка удовлетворяет и каждая точка удовлетворяет , где это -й компонент .
Эквивалентно, два множества линейно разделимы именно тогда, когда их соответствующие выпуклые оболочки ( не пересекаются в разговорной речи не перекрываются). [1]
В простом 2D также можно представить, что набор точек при линейном преобразовании схлопывается в линию, на которой существует значение k, большее, чем то, в которое попадет один набор точек, и меньше, чем другое множество. очков падают.
Примеры
[ редактировать ]Три неколлинеарные точки двух классов («+» и «-») всегда линейно разделимы в двух измерениях. Это иллюстрируется тремя примерами на следующем рисунке (случай со всеми «+» не показан, но аналогичен случаю со всеми «-»):
![]() |
![]() |
![]() |
Однако не все наборы из четырех точек (и не все три коллинеарные) линейно разделимы в двух измерениях. В следующем примере потребуются две прямые линии, и поэтому он не является линейно разделимым:
![]() |
Обратите внимание, что три точки, лежащие на одной прямой и имеющие вид «+ ⋅⋅⋅ — ⋅⋅⋅ +», также не являются линейно разделимыми.
Количество линейных разделений
[ редактировать ]Позволять — количество способов линейно разделить N точек (в общем положении) в K измерениях, тогда [2] Когда К велико, очень близко к тому, когда , но очень близко к нулю, когда . Другими словами, одна единица перцептрона почти наверняка может запомнить случайное назначение двоичных меток в N точках, когда , но почти наверняка не тогда, когда .
Линейная отделимость булевых функций от n переменных
[ редактировать ]Булеву функцию с n переменными можно рассматривать как присвоение 0 или 1 каждой вершине булева гиперкуба в n измерениях. Это дает естественное разделение вершин на два множества. Булева функция называется линейно разделимой , если эти два набора точек линейно разделимы. Число различных логических функций равно где n — количество переменных, переданных в функцию. [3]
Такие функции еще называют линейной пороговой логикой, или персептронами . Классическая теория резюмируется в: [4] как утверждает Кнут. [5]
Значение известно только с точностью до случай, но порядок величины известен совершенно точно: он имеет верхнюю границу и нижняя граница . [6]
Ко -NP-полна , чтобы решить, является ли булева функция, заданная в дизъюнктивной или конъюнктивной нормальной форме, линейно разделимой. [6]
Количество переменных | Булевы функции | Линейно разделимые логические функции |
---|---|---|
2 | 16 | 14 |
3 | 256 | 104 |
4 | 65536 | 1882 |
5 | 4294967296 | 94572 |
6 | 18446744073709552000 | 15028134 |
7 | 3.402823669 ×10^38 | 8378070864 |
8 | 1.157920892 ×10^77 | 17561539552946 |
9 | 1.340780792 ×10^154 | 144130531453121108 |
Машины опорных векторов
[ редактировать ]
Классификация данных — распространенная задача в машинном обучении . Предположим, заданы некоторые точки данных, каждая из которых принадлежит одному из двух наборов, и мы хотим создать модель, которая будет решать, в каком наборе будет находиться новая точка данных. В случае машин опорных векторов точка данных рассматривается как p -мерный вектор (список p чисел), и мы хотим знать, можем ли мы разделить такие точки с помощью ( p − 1)-мерной гиперплоскости . Это называется линейным классификатором . Существует множество гиперплоскостей, которые могут классифицировать (разделять) данные. Разумным выбором в качестве лучшей гиперплоскости является та, которая представляет собой наибольшее расстояние или границу между двумя наборами. Поэтому мы выбираем гиперплоскость так, чтобы расстояние от нее до ближайшей точки данных на каждой стороне было максимальным. Если такая гиперплоскость существует, она известна как гиперплоскость с максимальным запасом , а линейный классификатор, который она определяет, известен как классификатор с максимальным запасом .
Более формально, учитывая некоторые обучающие данные , набор из n точек вида
где y i равно 1 или −1, что указывает на множество, к которому относится точка принадлежит. Каждый является p -мерным вещественным вектором. Мы хотим найти гиперплоскость с максимальным запасом, которая разделяет точки, имеющие от тех, кто имеет . Любую гиперплоскость можно записать как множество точек удовлетворяющий
где обозначает скалярное произведение и (не обязательно нормализованный) вектор нормали к гиперплоскости. Параметр определяет смещение гиперплоскости от начала координат по вектору нормали .
Если обучающие данные линейно разделимы, мы можем выбрать две гиперплоскости таким образом, чтобы они разделяли данные и между ними не было точек, а затем попытаться максимизировать их расстояние.
См. также
[ редактировать ]- Кластеризация (статистика)
- Теорема о разделении гиперплоскостей
- Теорема Кирхбергера
- Персептрон
- Vapnik–Chervonenkis dimension
Ссылки
[ редактировать ]- ^ Бойд, Стивен; Ванденберге, Ливен (8 марта 2004 г.). Выпуклая оптимизация . Издательство Кембриджского университета. дои : 10.1017/cbo9780511804441 . ISBN 978-0-521-83378-3 .
- ^ Маккей, Дэвид (25 сентября 2003 г.). Теория информации, логический вывод и алгоритмы обучения . Издательство Кембриджского университета . п. 483. ИСБН 9780521642989 .
- ^ Рассел, Стюарт Дж. (2016). Искусственный интеллект – современный подход . Норвиг, Питер 1956- (Третье изд.). Бостон. п. 766. ИСБН 978-1292153964 . OCLC 945899984 .
{{cite book}}
: CS1 maint: отсутствует местоположение издателя ( ссылка ) - ^ Мурога, Сабуро (1971). Пороговая логика и ее приложения . Нью-Йорк: Wiley-Interscience. ISBN 978-0-471-62530-8 .
- ^ Кнут, Дональд Эрвин (2011). Искусство компьютерного программирования . Река Аппер-Седл: Аддисон-Уэсли. стр. 75–79. ISBN 978-0-201-03804-0 .
- ^ Перейти обратно: а б Шима, Иржи; Орпонен, Пекка (1 декабря 2003 г.). «Вычисления общего назначения с использованием нейронных сетей: обзор результатов теории сложности» . Нейронные вычисления . 15 (12): 2727–2778. дои : 10.1162/089976603322518731 . ISSN 0899-7667 . ПМИД 14629867 . S2CID 264603251 .
- ^ Грузлинг, Николь (2006). «Линейная разделимость вершин n-мерного гиперкуба. Кандидатская диссертация» (Документ). Университет Северной Британской Колумбии.