Коэффициент байесовских ошибок
В статистической классификации коэффициент ошибок Байеса — это минимально возможный коэффициент ошибок для любого классификатора случайного результата (например, в одну из двух категорий) и аналогичен неуменьшаемой ошибке. [1] [2]
Существует ряд подходов к оценке частоты байесовских ошибок. Один из методов направлен на получение аналитических границ, которые по своей сути зависят от параметров распределения и, следовательно, их трудно оценить. Другой подход фокусируется на плотности классов, а еще один метод объединяет и сравнивает различные классификаторы. [2]
Коэффициент ошибок Байеса находит важное применение при изучении закономерностей и методов машинного обучения . [3]
Определение ошибки
[ редактировать ]С точки зрения машинного обучения и классификации шаблонов метки набора случайных наблюдений можно разделить на 2 или более класса. Каждое наблюдение называется экземпляром , а класс, к которому оно принадлежит, — меткой .Коэффициент байесовских ошибок распределения данных — это вероятность того, что экземпляр будет неправильно классифицирован классификатором, который знает истинные вероятности классов с учетом предикторов.
Для многоклассового классификатора ожидаемая ошибка прогнозирования может быть рассчитана следующим образом: [3]
где x — экземпляр, математическое ожидание, C k — класс, к которому классифицируется экземпляр, P(C k |x) — условная вероятность метки k , например x , а L() — функция потерь 0–1:
где это дельта Кронекера .
Когда учащийся знает условную вероятность, одно из решений:
Это решение известно как классификатор Байеса.
Соответствующая ожидаемая ошибка прогноза называется частотой ошибок Байеса:
- ,
где сумма может быть опущена на последнем шаге из-за учета встречного события.По определению классификатора Байеса, он максимизирует и, следовательно, минимизирует байесовскую ошибку BE.
Ошибка Байеса не равна нулю, если метки классификации не являются детерминированными, т. е. существует ненулевая вероятность принадлежности данного экземпляра более чем одному классу. [4] В контексте регрессии с квадратичной ошибкой ошибка Байеса равна дисперсии шума. [3]
Доказательство минимальности
[ редактировать ]Доказательство того, что частота ошибок Байеса действительно минимально возможная и что поэтому классификатор Байеса является оптимальным, можно найти на странице Классификатор Байеса в Википедии .
Правила плагина для бинарных классификаторов
[ редактировать ]Правило плагина использует оценку апостериорной вероятности. сформировать правило классификации. Учитывая оценку , избыточная частота байесовских ошибок соответствующего классификатора ограничена сверху:
Чтобы убедиться в этом, обратите внимание, что избыточная ошибка Байеса равна 0 там, где классификаторы совпадают, и равна где они не согласны. Чтобы сформировать границу, обратите внимание, что это, по крайней мере, насколько когда классификаторы расходятся во мнениях.
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Фукунага, Кейносукэ (1990). Введение в статистическое распознавание образов . стр. 3, 97. ISBN. 0122698517 .
- ^ Jump up to: а б К. Тумер, К. (1996) «Оценка частоты ошибок Байеса посредством комбинирования классификаторов» в материалах 13-й Международной конференции по распознаванию образов , том 2, 695–699.
- ^ Jump up to: а б с Хасти, Тревор (2009). Элементы статистического обучения (2-е изд.). Спрингер. п. 21. ISBN 978-0387848570 .
- ^ Мори, Мехриар ; Ростамизаде, Афшин ; Талвалкар, Амит (2018). Основы машинного обучения (2-е изд.) . п. 22.