Jump to content

Одноклассовая классификация

(Перенаправлено из ПУ )

В машинном обучении классификация одного класса ( OCC ), также известная как унарная классификация или моделирование классов , пытается идентифицировать объекты определенного класса среди всех объектов, в первую очередь обучаясь на обучающем наборе, содержащем только объекты этого класса. [1] хотя существуют варианты одноклассовых классификаторов, в которых для дальнейшего уточнения границ классификации используются контрпримеры. Это отличается от традиционной задачи классификации , которая пытается различить два или более классов, а обучающий набор содержит объекты из всех классов. Примеры включают мониторинг редукторов вертолетов, [2] [3] [4] прогнозирование отказа двигателя, [5] или эксплуатационное состояние атомной станции как «нормальное»: [6] В этом сценарии примеров катастрофических состояний системы мало, если вообще они есть; известна только статистика нормальной работы.

Хотя многие из вышеперечисленных подходов ориентированы на удаление небольшого количества выбросов или аномалий, можно также изучить другую крайность, когда один класс охватывает небольшое связное подмножество данных, используя подход, основанный на узком месте информации . [7]

Термин одноклассовая классификация (OCC) был придуман Мойей и Хашем (1996). [8] В научной литературе можно найти множество применений, например обнаружение выбросов , обнаружение аномалий , обнаружение новизны . Особенностью OCC является то, что он использует только точки выборки из назначенного класса, поэтому репрезентативная выборка не является строго обязательной для нецелевых классов. [9]

Введение

[ редактировать ]
Гиперсфера, содержащая целевые данные, имеющая центр c и радиус r. Объекты на границе являются опорными векторами, а два объекта лежат за пределами границы, имея запас прочности больше 0.

Классификация одного класса (OCC) на основе SVM основана на определении наименьшей гиперсферы (с радиусом r и центром c), состоящей из всех точек данных. [10] Этот метод называется описанием данных опорного вектора (SVDD). Формально задачу можно определить в следующей форме ограниченной оптимизации:

Однако приведенная выше формулировка является весьма ограничительной и чувствительна к наличию выбросов. Таким образом, гибкая формулировка, допускающая наличие выбросов, формулируется, как показано ниже:

Из условий оптимальности Каруша-Куна-Такера (ККТ) получаем

где являются решением следующей задачи оптимизации:

при условии,

Введение функции ядра обеспечивает дополнительную гибкость алгоритму SVM одного класса (OSVM). [11]

ПУ (положительное немаркированное) обучение

[ редактировать ]

Аналогичная проблема — PU-обучение , при котором двоичный классификатор изучается полуконтролируемым способом только из положительных и немаркированных точек выборки. [12]

При ПУ-обучении предполагается, что для обучения доступны два набора примеров: положительный набор и смешанный набор , который, как предполагается, содержит как положительные, так и отрицательные образцы, но без соответствующей маркировки. Это контрастирует с другими формами полуконтролируемого обучения, где предполагается, что в дополнение к немаркированным образцам доступен маркированный набор, содержащий примеры обоих классов. Существует множество методов адаптации контролируемых классификаторов к условиям обучения PU, включая варианты алгоритма EM . PU-обучение успешно применяется к тексту , [13] [14] [15] временной ряд, [16] биоинформатики , задачи [17] [18] и данные дистанционного зондирования. [19]

Было предложено несколько подходов для решения одноклассовой классификации (OCC). Подходы можно разделить на три основные категории: оценка плотности , граничные методы и методы реконструкции . [6]

Методы оценки плотности

[ редактировать ]

Методы оценки плотности основаны на оценке плотности точек данных и установке порогового значения. Эти методы основаны на предположении о распределениях, таких как распределение Гаусса или распределение Пуассона . После этого тесты на несогласованность можно использовать для проверки новых объектов. Эти методы устойчивы к масштабной дисперсии.

Гауссова модель [20] — один из простейших методов создания одноклассовых классификаторов. Согласно Центральной предельной теореме (CLT), [21] эти методы работают лучше всего, когда присутствует большое количество выборок, и их возмущают небольшие независимые значения ошибок. Распределение вероятностей для d-мерного объекта определяется следующим образом:

Где, это среднее и — ковариационная матрица. Вычисление обратной ковариационной матрицы ( ) является самой дорогостоящей операцией, и в тех случаях, когда данные не масштабируются должным образом или данные имеют сингулярные направления, псевдообратная операция. используется для аппроксимации обратного и рассчитывается как . [22]

Граничные методы

[ редактировать ]

Граничные методы направлены на установление границ вокруг нескольких наборов точек, называемых целевыми точками. Эти методы пытаются оптимизировать объем. Граничные методы основаны на расстояниях и, следовательно, не устойчивы к масштабной дисперсии. Метод K-центров, NN-d и SVDD являются одними из ключевых примеров.

К-центры

В алгоритме K-центра [23] маленькие шарики одинакового радиуса размещаются так, чтобы минимизировать максимальное расстояние из всех минимальных расстояний между тренировочными объектами и центрами. Формально минимизируется следующая ошибка:

Алгоритм использует метод прямого поиска со случайной инициализацией, где радиус определяется максимальным расстоянием до объекта, который должен захватить любой данный шар. После определения центров для любого заданного объекта контроля расстояние можно рассчитать как:

Методы реконструкции

[ редактировать ]

Методы реконструкции используют предварительные знания и процесс генерации для построения модели генерации, которая лучше всего соответствует данным. Новые объекты можно описывать с точки зрения состояния порождающей модели. Некоторыми примерами методов реконструкции для OCC являются кластеризация k-средних, квантование обучающего вектора, самоорганизующиеся карты и т. Д.

Приложения

[ редактировать ]

Классификация документов

[ редактировать ]

Базовая парадигма машины опорных векторов (SVM) обучается с использованием как положительных, так и отрицательных примеров, однако исследования показали, что существует множество веских причин для использования только положительных примеров. Когда алгоритм SVM модифицируется для использования только положительных примеров, этот процесс считается классификацией одного класса. Одной из ситуаций, когда этот тип классификации может оказаться полезным для парадигмы SVM, является попытка идентифицировать интересующие сайты веб-браузера, основываясь только на истории посещений пользователя.

Биомедицинские исследования

[ редактировать ]

Классификация по одному классу может быть особенно полезна в биомедицинских исследованиях, где часто бывает трудно или невозможно получить данные из других классов. При изучении биомедицинских данных может быть сложно и/или дорого получить набор размеченных данных из второго класса, который был бы необходим для выполнения классификации на два класса. Исследование журнала The Scientific World Journal показало, что подход типичности является наиболее полезным при анализе биомедицинских данных, поскольку его можно применять к любому типу набора данных (непрерывному, дискретному или номинальному). [24] Подход типичности основан на кластеризации данных путем анализа данных и размещения их в новых или существующих кластерах. [25] Чтобы применить типичность к одноклассовой классификации биомедицинских исследований, каждое новое наблюдение , сравнивается с целевым классом, и идентифицируется как выброс или член целевого класса. [24]

Неконтролируемое обнаружение отклонения концепции

[ редактировать ]

Классификация одного класса имеет сходство с неконтролируемым обнаружением отклонения концепции, где обе цели направлены на определение того, имеют ли невидимые данные схожие характеристики с исходными данными. Концепция называется фиксированным распределением вероятностей, из которого извлекаются данные. При неконтролируемом обнаружении отклонения концепции цель состоит в том, чтобы определить, изменяется ли распределение данных, без использования меток классов. В одноклассовой классификации поток данных не важен. Невидимые данные классифицируются как типичные или выпадающие в зависимости от их характеристик, независимо от того, соответствуют ли они исходной концепции или нет. Однако неконтролируемое обнаружение дрейфа отслеживает поток данных и сигнализирует о дрейфе, если имеется значительное количество изменений или аномалий. Обнаружение дрейфа концепции без присмотра можно определить как непрерывную форму одноклассовой классификации. [26] Классификаторы одного класса используются для обнаружения отклонений понятий. [27]

См. также

[ редактировать ]
  1. ^ Оливери П. (август 2017 г.). «Классовое моделирование в пищевой аналитической химии: вопросы разработки, отбора проб, оптимизации и проверки - Учебное пособие». Аналитика Химика Акта . 982 : 9–19. дои : 10.1016/j.aca.2017.05.013 . hdl : 11567/881059 . ПМИД   28734370 .
  2. ^ Япкович Н., Майерс С., Глюк М. (1995). «Подход к обнаружению новинок в классификации». стр. 518–523. CiteSeerX   10.1.1.40.3663 .
  3. ^ Япкович Н (1999). Концептуальное обучение в отсутствие контрпримеров: подход к классификации на основе автоассоциаций (тезис). Университет Рутгерса.
  4. ^ Япкович Н (2001). «Двоичное обучение под контролем и без учителя с помощью нейронных сетей с прямой связью» (PDF) . Машинное обучение . 42 : 97–122. дои : 10.1023/А:1007660820062 . S2CID   7298189 .
  5. ^ Петше Т., Маркантонио А., Даркен С., Хэнсон С., Кун Г., Сантосо I (1996). «Автоассоциатор нейронной сети для прогнозирования отказов асинхронных двигателей» (PDF) . НИПС.
  6. ^ Перейти обратно: а б Налог Д (2001). Одноклассовая классификация: Концептуальное обучение в отсутствие контрпримеров (PDF) (кандидатская диссертация). Нидерланды: Делфтский университет.
  7. ^ Краммер, Коби (2004). «Иголка в стоге сена» . Двадцать первая международная конференция по машинному обучению — ICML '04 . п. 26. дои : 10.1145/1015330.1015399 . ISBN  978-1-58113-838-2 . S2CID   8736254 .
  8. ^ Мойя, М.; Тише, Д. (1996). «Сетевые ограничения и многоцелевая оптимизация для одноклассовой классификации». Нейронные сети . 9 (3): 463–474. дои : 10.1016/0893-6080(95)00120-4 .
  9. ^ Родионова О.Ю., Оливери П., Померанцев А.Л. (15 декабря 2016 г.). «Строгие и совместимые подходы к одноклассовой классификации». Хемометрика и интеллектуальные лабораторные системы . 159 : 89–96. дои : 10.1016/j.chemolab.2016.10.002 . hdl : 11567/864539 .
  10. ^ Зинеб, Нумир; Хонейн, Пол; Ричард, Cedue (2012). «О простых одноклассовых методах классификации». Труды международного симпозиума IEEE по теории информации . ИИЭР, 2012.
  11. ^ Хан, Шехроз С.; Мэдден, Майкл Г. (2010). Койл, Лоркан; Фрейн, Джилл (ред.). «Обзор последних тенденций в классификации одного класса». Искусственный интеллект и когнитивная наука . Конспекты лекций по информатике. 6206 . Шпрингер Берлин Гейдельберг: 188–197. дои : 10.1007/978-3-642-17080-5_21 . hdl : 10379/1472 . ISBN  978-3-642-17080-5 . S2CID   36784649 .
  12. ^ Лю, Бинг (2007). Веб-анализ данных . Спрингер. стр. 165–178.
  13. ^ Бин Лю; Ви Сан Ли; Филип С. Ю и Сяо-Ли Ли (2002). Частично контролируемая классификация текстовых документов . ИКМЛ. стр. 8–12.
  14. ^ Хванджо Ю; Цзявэй Хан; Кевин Чен-Чуан Чанг (2002). PEBL: обучение на основе положительных примеров классификации веб-страниц с использованием SVM . АСМ СИГКДД.
  15. ^ Сяо-Ли Ли и Бин Лю (2003). Учимся классифицировать текст, используя положительные и немаркированные данные . IJCAI.
  16. ^ Минь Нхут Нгуен; Сяо-Ли Ли и Си-Кионг Нг (2011). Позитивное немаркированное обучение для классификации временных рядов . IJCAI.
  17. ^ Пэн Ян; Сяо-Ли Ли; Цзянь-Пин Мэй; Чи-Кеонг Кво и Си-Кионг Нг (2012). Позитивное немеченое обучение идентификации генов болезней . Биоинформатика, Том 28 (20).
  18. ^ Буньон, Луизиана; Йонс, К.; Милон, Д. Х. и Стегмайер, Г. (2020). «Общегеномное открытие пре-миРНК: сравнение последних подходов, основанных на машинном обучении». Оксфордская биоинформатика . 22 (3). дои : 10.1093/нагрудник/bbaa184 . ПМИД   32814347 .
  19. ^ Ли, В.; Го, Ц.; Элкан, К. (февраль 2011 г.). «Позитивный и немаркированный алгоритм обучения для одноклассовой классификации данных дистанционного зондирования». Транзакции IEEE по геонаукам и дистанционному зондированию . 49 (2): 717–725. Бибкод : 2011ITGRS..49..717L . дои : 10.1109/TGRS.2010.2058578 . ISSN   0196-2892 . S2CID   267120 .
  20. ^ Бишоп Кристофер М.; Бишоп, профессор нейронных вычислений Кристофер М. (23 ноября 1995 г.). Нейронные сети для распознавания образов . Кларендон Пресс. ISBN  978-0-19-853864-6 .
  21. ^ Уллман, Нил Р. (01 января 2017 г.). Элементарная статистика . [ мертвая ссылка ]
  22. ^ «Введение в прикладную математику» . Книжный магазин СИАМ . Проверено 29 апреля 2019 г.
  23. ^ Йпма, Александр; Дуин, Роберт П.В. (1998). Никлассон, Ларс; Боден, Микаэль; Зиемке, Том (ред.). «Поддержка объектов для аппроксимации предметной области». Иканн 98 . Перспективы нейронных вычислений. Спрингер Лондон: 719–724. дои : 10.1007/978-1-4471-1599-1_110 . ISBN  978-1-4471-1599-1 .
  24. ^ Перейти обратно: а б Иригоен I, Сьерра Б, Аренас С (2014). «К вопросу о применении одноклассовых методов классификации к медицинским данным» . Научный мировой журнал . 2014 : 730712. doi : 10.1155/2014/730712 . ПМЦ   3980920 . ПМИД   24778600 .
  25. ^ Иригойен I, Аренас C (июль 2008 г.). «INCA: новая статистика для оценки количества кластеров и выявления атипичных единиц». Статистика в медицине . 27 (15): 2948–73. дои : 10.1002/сим.3143 . ПМИД   18050154 . S2CID   24791212 .
  26. ^ Гезюачик, Омер; Джан, Фазли (ноябрь 2020 г.). «Концептуальное обучение с использованием одноклассовых классификаторов для неявного обнаружения дрейфа в развивающихся потоках данных». Обзор искусственного интеллекта . 54 (5): 3725–3747. дои : 10.1007/s10462-020-09939-x . hdl : 11693/77042 . S2CID   229506136 .
  27. ^ Кравчик, Бартош; Возняк, Михал (2015). «Одноклассовые классификаторы с инкрементным обучением и забыванием потоков данных с отклонением понятий» . Мягкие вычисления . 19 (12): 3387–3400. дои : 10.1007/s00500-014-1492-5 . S2CID   207011971 .
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: bb92d4337d38df9c85d441b660c24943__1717074180
URL1:https://arc.ask3.ru/arc/aa/bb/43/bb92d4337d38df9c85d441b660c24943.html
Заголовок, (Title) документа по адресу, URL1:
One-class classification - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)